S O Y R E P O R T E R O

Carta abierta exige al Pentágono retirar supply-chain risk a Anthropic por límites IA militares

Cientos de tecnólogos piden frenar la etiqueta de riesgo a Anthropic tras negar acceso militar irrestricto a sus sistemas.

Publicado por: admin (soyreportero)

2026/03/02 | 21:11

Calificación

0 / 5 (0 votos)

Reportes

0

Carta abierta exige al Pentágono retirar supply-chain risk a Anthropic por límites IA militares

Fuente: https://images.pexels.com/photos/4019401/pexels-photo-4019401.jpeg?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

Cientos de trabajadores del sector tecnológico firmaron una carta abierta para pedir al Departamento de Defensa de EE. UU. (DOD) que retire la designación de Anthropic como “supply-chain risk”, una etiqueta que, en la práctica, podría dejar a la empresa fuera de contratos federales y de cualquier actor que haga negocios con el Pentágono. La carta también reclama que el Congreso intervenga y “examine si el uso de estas autoridades extraordinarias contra una empresa tecnológica estadounidense es apropiado”. Entre los firmantes hay perfiles vinculados a compañías y fondos conocidos, como OpenAI, Slack, IBM, Cursor y Salesforce Ventures.

El detonante fue un choque directo entre el DOD y Anthropic después de que el laboratorio de IA se negara, la semana pasada, a conceder acceso militar irrestricto a sus sistemas. En las negociaciones, Anthropic marcó dos líneas rojas: no quería que su tecnología se usara para vigilancia masiva de estadounidenses ni para habilitar armas autónomas capaces de seleccionar objetivos y disparar sin un humano “en el circuito”. El DOD aseguró que no planeaba hacer ninguna de esas dos cosas, pero sostuvo que no debía quedar limitado por reglas impuestas por un proveedor.

Tras no alcanzarse un acuerdo entre el CEO de Anthropic, Dario Amodei, y el secretario de Defensa, Pete Hegseth, el presidente Donald Trump ordenó el viernes que las agencias federales dejen de usar la tecnología de Anthropic tras un periodo de transición de seis meses. Luego, Hegseth avanzó con la idea de catalogar a Anthropic como “supply-chain risk”, una designación normalmente reservada para adversarios extranjeros y que funcionaría como una lista negra para impedirle trabajar con agencias o con empresas que tengan relación contractual con el Pentágono. En una publicación, Hegseth escribió: “Con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el ejército de Estados Unidos puede realizar actividad comercial con Anthropic”.

Sin embargo, un post en X no convierte automáticamente a una compañía en “supply-chain risk”. Para que esa medida tenga consecuencias formales, el gobierno debe completar una evaluación de riesgo y notificar al Congreso antes de que los socios militares estén obligados a cortar lazos con Anthropic o sus productos. Anthropic respondió en su blog que la designación es “legalmente infundada” y que impugnará cualquier catalogación de este tipo en los tribunales.

La carta abierta resume el temor de la industria: que se esté castigando a una empresa estadounidense por no aceptar cambios en un contrato. “Cuando dos partes no pueden acordar términos, lo normal es separarse y trabajar con un competidor”, afirma el texto, que advierte sobre un precedente peligroso: “acepta lo que el gobierno exija o enfréntate a represalias”. Ese clima también reavivó el debate sobre el posible uso abusivo de la IA por parte del Estado. Boaz Barak, investigador de OpenAI, escribió que bloquear la vigilancia doméstica masiva debería ser una línea roja compartida.

En paralelo, y casi inmediatamente después de los ataques públicos de Trump a Anthropic, OpenAI anunció un acuerdo para desplegar sus modelos en entornos clasificados del DOD. Sam Altman, CEO de OpenAI, dijo que su empresa mantiene las mismas líneas rojas que Anthropic. Para muchos, el episodio deja una señal clara: la discusión sobre límites, supervisión y “usos prohibidos” de la IA ya no es solo ética corporativa; es una disputa política con consecuencias comerciales reales.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.