S O Y R E P O R T E R O

Anthropic y el Pentágono chocan por límites al uso militar de IA y vigilancia

Dario Amodei mantiene restricciones a vigilancia masiva y armas autónomas, mientras el Pentágono exige uso “lícito” sin condiciones.

Publicado por: admin (soyreportero)

2026/02/27 | 23:23

Calificación

0 / 5 (0 votos)

Reportes

0

Anthropic y el Pentágono chocan por límites al uso militar de IA y vigilancia

Fuente: https://images.pexels.com/photos/8566569/pexels-photo-8566569.jpeg?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

Durante las últimas dos semanas, una disputa poco habitual ha puesto en primer plano una pregunta incómoda: ¿quién manda realmente sobre los sistemas de IA más potentes, las empresas que los construyen o el gobierno que quiere desplegarlos? El choque enfrenta al CEO de Anthropic, Dario Amodei, con el secretario de Defensa de EE. UU., Pete Hegseth, y gira en torno a dos líneas rojas: vigilancia masiva de estadounidenses y armas totalmente autónomas que puedan atacar sin intervención humana.

Anthropic sostiene que no permitirá que sus modelos se usen para vigilancia masiva dentro de Estados Unidos ni para sistemas letales sin “humanos en el circuito” tomando decisiones de selección de objetivos y disparo. La compañía argumenta que la IA no es un producto militar tradicional: por su capacidad de escalar decisiones, automatizar análisis y operar a gran velocidad, exige salvaguardas especiales. Y, sobre todo, exige claridad sobre cómo se usa cuando entra en un entorno tan opaco como el militar.

El punto que más inquieta a Anthropic es que, en la práctica, el marco actual no cierra la puerta a la autonomía letal. El Departamento de Defensa no prohíbe de forma categórica las armas totalmente autónomas. De hecho, una directiva del DoD de 2023 contempla que sistemas de IA puedan seleccionar y atacar objetivos sin intervención humana, siempre que cumplan ciertos estándares y pasen revisiones de altos funcionarios. Para Anthropic, ahí está el riesgo: si se avanza hacia decisiones letales automatizadas, es posible que el público no lo sepa hasta que el sistema ya esté operativo.

A esto se suma el factor vigilancia. Bajo las leyes actuales, la vigilancia de ciudadanos estadounidenses ya es posible mediante recolección de comunicaciones (textos, correos y otros datos). La IA cambia la escala: permite detección automatizada de patrones a gran volumen, cruce de identidades entre bases de datos, puntuaciones predictivas de “riesgo” y análisis conductual continuo. Todo ello podría ser “lícito” y, aun así, profundamente intrusivo.

El Pentágono, por su parte, defiende que no debe quedar atado a las políticas internas de un proveedor. Hegseth ha insistido en que cualquier “uso lícito” debería estar permitido y que ninguna empresa debe dictar cómo se toman decisiones operativas. En un mensaje publicado el jueves en X, el portavoz jefe del Pentágono, Sean Parnell, aseguró que el departamento no tiene interés en vigilancia masiva doméstica ni en desplegar armas autónomas. Pero la exigencia central fue clara: “Permitir al Pentágono usar el modelo de Anthropic para todos los propósitos lícitos”. Parnell añadió un ultimátum: Anthropic tendría hasta las 5:01 p. m. (ET) del viernes para decidir; de lo contrario, el DoD terminaría la relación y consideraría a la empresa un “riesgo para la cadena de suministro” del Departamento.

Amodei respondió públicamente el jueves dando a entender que Anthropic no cederá, aun con la amenaza de ser etiquetada como riesgo de cadena de suministro, un paso que en la práctica puede cerrar el acceso a contratos y negocios con el gobierno. Un inversor especializado en defensa, Sachin Seth (Trousdale Ventures), advirtió que esa etiqueta podría significar “luces fuera” para Anthropic. Sin embargo, también planteó el costo inverso: si el DoD pierde a Anthropic, podría abrirse una brecha de seguridad nacional. Según Seth, el Departamento podría tener que esperar entre seis y doce meses para que OpenAI o xAI “se pongan al día”, quedando durante ese período con el “segundo o tercer mejor” modelo.

En paralelo, xAI se estaría preparando para operar con requisitos de información clasificada y reemplazar a Anthropic, y por el tono público de su propietario, Elon Musk, se interpreta que la compañía no tendría problema en ceder al DoD un control más amplio sobre su tecnología. También hay reportes recientes que indican que OpenAI podría mantener líneas rojas similares a las de Anthropic.

La tensión no es solo técnica. Hegseth ha enmarcado parte del debate en clave cultural: en un discurso en oficinas de SpaceX y xAI en enero, criticó la idea de una “IA woke” y afirmó que la “IA del Departamento de Guerra no será woke”, remarcando que buscan sistemas “listos para la guerra” y no “chatbots para un salón de profesores de la Ivy League”.

Ahora, el tablero queda con dos amenazas sobre la mesa: que el Pentágono declare a Anthropic un riesgo para la cadena de suministro o que invoque la Defense Production Act (DPA) para obligar a la compañía a adaptar su modelo a necesidades militares. Con el plazo marcado por el DoD, el desenlace es incierto. Pero lo que sí queda claro es lo que está en juego: el control efectivo de una tecnología que puede amplificar tanto la defensa como la vigilancia, y que, en el peor escenario, podría acelerar decisiones irreversibles sin supervisión humana.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.