S O Y R E P O R T E R O

Anthropic rechaza entregar su IA sin límites al Pentágono y abre un pulso con Washington

Estados Unidos exigió acceso sin restricciones a la IA de Anthropic; la empresa se negó y arriesga represalias severas.

Publicado por: admin (soyreportero)

2026/02/27 | 12:24

Calificación

0 / 5 (0 votos)

Reportes

0

Anthropic rechaza entregar su IA sin límites al Pentágono y abre un pulso con Washington

Fuente: https://images.pexels.com/photos/18068767/pexels-photo-18068767.png?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

La fecha estaba marcada en rojo: 17:01 de este viernes 27 de febrero. Era el límite que Estados Unidos había puesto a Anthropic para tomar una decisión incómoda y, a la vez, definitoria. O cedía al Departamento de Defensa una versión de su inteligencia artificial “sin cortapisas”, o se exponía a consecuencias que, en palabras del propio mensaje recibido, podían convertirla en “un Huawei”: una empresa señalada, aislada y tratada como un riesgo para la cadena de suministro.

Anthropic ha respondido con un “no” rotundo. Y con esa negativa ha convertido un desacuerdo técnico y contractual en un choque político de alto voltaje: una empresa enfrentada a su propio Gobierno.

El trasfondo es tan delicado como concreto. El software de Anthropic ya está plenamente integrado con Palantir y con sistemas del Departamento de Defensa. No se trata de una prueba de laboratorio: hablamos de una herramienta que, según el propio contexto descrito, ha implicado acceso total a documentos a los que nadie fuera del Pentágono puede acceder. El Pentágono quería ir más allá y convertir esa IA también en una herramienta de campo. Pero ahí aparece el punto de fricción: Claude —la IA de Anthropic— está atada a reglas morales que impiden su uso para vigilancia masiva de ciudadanos estadounidenses, para el desarrollo de armas y para el uso de armamento autónomo.

Precisamente esos son los usos que el Departamento de Defensa busca habilitar.

La historia tiene otro giro que explica por qué el pulso es tan tenso. Anthropic ofreció su IA al Pentágono por un precio simbólico: un dólar. El Pentágono aceptó… y la respuesta fue un contrato de 200 millones de dólares. En el contexto de las inversiones en IA, esa cifra no es lo que más pesa. Lo que pesa es la dependencia creada: la tecnología ya está dentro.

Dario Amodei, CEO de Anthropic, ha publicado hoy un comunicado en el blog de la compañía. Abre con una frase que parece tender puentes: “creo profundamente en la importancia existencial de usar la IA para defender Estados Unidos y a otras democracias para derrotar a nuestros adversarios autocráticos”. Pero, tras repasar lo que la empresa ya ha cedido para colaborar con Defensa y criticar que se haya blandido la Ley de Producción de Defensa de 1950 como herramienta de presión, llega la línea que lo cambia todo: “no podemos acceder en buena conciencia a la petición”.

La negativa se apoya en dos límites muy específicos. El primero: el espionaje masivo contra ciudadanos estadounidenses. La compañía advierte que una IA puede armar bases de datos completas sobre la vida de cualquier persona, a una escala imposible para equipos humanos. El segundo: el uso de armas letales autónomas. El argumento es brutalmente simple y difícil de rebatir: una IA no tiene juicio, no cuestiona, no siente remordimientos ni puede evaluar el peso moral de un falso positivo. Una IA ejecuta.

El movimiento de Anthropic no está aislado. La carta abierta ha recibido apoyo incluso desde la competencia: 219 empleados de Google y 65 de OpenAI, algunos con nombre y otros en anonimato, respaldan el rechazo a que los modelos se utilicen para vigilancia masiva y para “matar de forma autónoma a personas sin supervisión humana”.

Ahora el riesgo es real. El Gobierno ha amenazado con etiquetar a Anthropic como “riesgo en la cadena de suministro”, una marca reservada históricamente para adversarios del país y nunca aplicada a una empresa estadounidense. Eso podría bloquear acuerdos con socios nacionales y empujar a Anthropic a un aislamiento inédito. Y, aun sin acuerdo, Estados Unidos conserva una carta extrema: la Ley de Producción de Defensa permitiría, si se considera imprescindible para la seguridad nacional, adueñarse de la tecnología por la fuerza.

La pelota está en el tejado del Pentágono, pero el reloj corre. Anthropic dice que, si finalmente Defensa elige a otra empresa, colaborará en una transición “sin fisuras”. La pregunta es si esa transición es viable cuando la IA ya está tan integrada en sistemas críticos y cuando la amenaza ha sido tan explícita: “dánoslo por las buenas o te lo quitamos por las malas”. En las próximas horas se verá si este pulso termina en acuerdo, en ruptura… o en un precedente que reordene la relación entre la industria de la IA y el poder del Estado.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.