EEUU veta a Claude por “IA woke, pero la usa en bombardeos y expone su dependencia
Trump prohibió Claude en el Pentágono por “IA woke”, pero reportes indican que ayudó en el ataque a Irán.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/20478221/pexels-photo-20478221.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
El 28 de febrero, Israel y Estados Unidos bombardearon Irán. Y, en paralelo, estalló otra batalla menos visible, pero igual de decisiva: qué inteligencia artificial debe estar integrada en el músculo militar estadounidense. Porque la IA ya no es un experimento de laboratorio en Defensa; es una herramienta cotidiana para analizar datos, evaluar escenarios y apoyar decisiones operativas.En ese contexto, el Gobierno de Donald Trump ordenó horas antes del ataque que se dejara de usar Claude —y, en general, cualquier tecnología de Anthropic— en operaciones militares. El argumento político fue directo: Claude sería una “IA woke”. El propio Trump lo remató en Truth Social con una orden tajante para que todas las agencias federales cesaran “inmediatamente” su uso. El secretario de Defensa, Pete Hegseth, siguió la misma línea y elevó el choque a un pulso público.El problema es que, según reportó The Wall Street Journal, el ataque contra Irán se ejecutó con ayuda de esas mismas herramientas vetadas. El medio sostiene que comandos en distintas partes del mundo, incluido el Comando Central de EEUU en Oriente Medio, usaron Claude para evaluar la situación, identificar objetivos y simular escenarios de batalla. Si esto se confirma en toda su dimensión, la contradicción no sería un detalle: sería la prueba de que el veto llegó tarde, porque Claude ya estaba dentro.La raíz del conflicto viene de atrás. Cuando EEUU buscaba una IA que apoyara sistemas de defensa e integración con Palantir, Anthropic ofreció su tecnología por un dólar. Esa oferta acabó abriendo la puerta a un contrato de 200 millones y a una integración profunda en múltiples flujos de trabajo. Fuentes citadas en el entorno del Pentágono describen su valor en análisis masivo de datos, hasta el punto de que se estima que se usó en operaciones tan sensibles como la captura de Nicolás Maduro hace unos meses.Anthropic, sin embargo, marcó dos líneas rojas: no usar su IA para espiar masivamente a ciudadanos estadounidenses y no emplearla para desarrollar o controlar armas y sistemas de ataque autónomos. La Casa Blanca y el Departamento de Guerra presionaron para “desatar” el modelo. Incluso se llegó a plantear la carta extrema de la Ley de Producción de Defensa de 1950 para apropiarse de la creación de Anthropic. Dario Amodei, CEO de la compañía, respondió con un comunicado largo y firme: apoyo a la defensa del país, sí; a cualquier precio, no.Ahí se rompió todo. Pero la realidad técnica pesa más que el titular político. Se estima que eliminar el rastro de Claude del software del Pentágono podría llevar seis meses. En otras palabras: aunque haya prohibición y lista negra, la dependencia existe y desmontarla no es inmediato.Mientras tanto, OpenAI ya se movió para ocupar el hueco. Su mensaje fue claro: EEUU necesita modelos de IA para su misión. Dice mantener principios similares a los de Anthropic, pero con una diferencia clave: vincula el uso a lo que el Departamento de Defensa considere legal, un matiz que abre un terreno ambiguo.El episodio deja una conclusión incómoda: en la guerra por la IA militar, la política puede ordenar vetos, pero la infraestructura —y la dependencia— decide qué se usa cuando llega el momento crítico.