El Pentágono presiona a Anthropic y reabre el debate sobre la propiedad de la IA
EEUU exige a Anthropic liberar restricciones de uso militar, apoyándose en leyes de defensa nacional y contratos vigentes.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/18498317/pexels-photo-18498317.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Estados Unidos acaba de enviar un mensaje difícil de ignorar a la industria de la inteligencia artificial: si el país considera que hay una necesidad de seguridad nacional, la IA privada puede convertirse, de facto, en un recurso del Estado. El detonante es una presión directa del Pentágono sobre Anthropic, la empresa detrás de Claude, para que acepte que sus modelos se usen “para lo que el Pentágono considere oportuno”. La fecha límite es inminente: este viernes a las 17:01.El choque no es menor porque Anthropic había marcado líneas rojas claras. Sus modelos, según su propio enfoque, no deben utilizarse para vigilancia masiva de ciudadanos estadounidenses (con ese matiz explícito) ni para el desarrollo de armas o el uso de armamento autónomo totalmente controlado por IA. Esa “vara moral”, sin embargo, es justamente lo que el Departamento de Defensa quiere retirar del camino: disponer de una IA sin restricciones operativas.La historia tiene un giro que explica por qué el pulso es tan serio. Anthropic ofreció su herramienta al Gobierno por el precio simbólico de un dólar, un gesto que terminó traduciéndose en un contrato de 200.000.000 dólares. Con el tiempo, sus modelos se fueron integrando cada vez más en el ecosistema del Pentágono, en colaboración con Palantir. En otras palabras: no se trata de un piloto aislado ni de un experimento fácilmente reemplazable. Es una pieza ya incrustada en sistemas, procesos y servicios cotidianos del Departamento de Defensa, con acceso a entornos altamente sensibles.Aquí entra la “palanca” legal que hace que la negociación no sea entre iguales. La Defense Production Act (DPA), nacida en 1950 durante la Guerra de Corea, otorga al presidente poderes para asegurar suministros necesarios para la defensa nacional. En la práctica, permite exigir a empresas que prioricen contratos con el Estado y asignen materiales, servicios e instalaciones según lo que el Gobierno considere necesario. Con el paso de las décadas, ese marco se ha ampliado para adaptarse a nuevas realidades tecnológicas.Más recientemente, en 2023 se firmó la Orden Ejecutiva 14.110, que obliga a los propietarios de los modelos de IA más potentes a notificar al Gobierno cuando entrenen sistemas que puedan suponer un riesgo para la seguridad nacional, la economía o la salud pública. Aun así, el Pentágono ni siquiera necesitaría inventar una norma nueva para apretar: el Título I de la DPA ya ofrece una vía para “ordenar” el suministro de servicios al Gobierno bajo el paraguas de la defensa nacional.El punto más inquietante del debate es el efecto práctico: si la IA pasa a estar bajo control del Pentágono, las barreras éticas que Anthropic impone por diseño podrían eliminarse. Y, a diferencia de un soldado —que, según la ética y las leyes de las Fuerzas Armadas de EEUU, puede y debe desobedecer una orden manifiestamente ilegal— una IA ejecuta lo que se le pida.¿Podría Anthropic cortar por lo sano, devolver el contrato y marcharse? Según lo que se conoce, no de forma simple. Claude está “demasiado dentro” de sistemas clasificados y “sabe” demasiado como para que la salida sea limpia. Además, el Gobierno tendría otra herramienta de presión: si Anthropic no cede, podría ser señalada como una empresa que pone en riesgo la cadena de suministro del país. Sería un castigo con ecos del veto a Huawei, pero aplicado a una compañía estadounidense: en la práctica, otras empresas de EEUU no podrían trabajar con Anthropic.En medio del pulso aparece un elemento político y cultural: Pete Hegseth, Secretario de Defensa, ha calificado la postura moral de Anthropic como la de una “IA woke”. La comparación resulta reveladora porque otras compañías —como Google, OpenAI y xAI— permitirían el uso gubernamental de sus modelos en cualquier escenario considerado “legal” por el propio Gobierno, mientras que Anthropic mantiene límites más estrictos.El desenlace se conocerá pronto, pero la lección ya está sobre la mesa. No solo para las empresas estadounidenses, que operan bajo el paraguas de la Defense Production Act, sino también para el resto del mundo, especialmente Europa. La dependencia de proveedores que pueden ser “requisados” por motivos de seguridad nacional cambia el cálculo en sistemas críticos. El texto lo ilustra con un ejemplo claro: SpaceX se ha convertido en socio clave en comunicaciones satelitales y lanzamientos, pero ya no es solo una empresa de cohetes; también está vinculada a xAI y, además, a X (antes Twitter), una enorme base de datos. La lectura es incómoda, pero directa: en la nueva era, la soberanía tecnológica no se discute solo en laboratorios y mercados, también en leyes de emergencia y contratos de defensa.