S O Y R E P O R T E R O

Anthropic contra el Pentágono: Revelan la Verdad Oculta que desmiente el Riesgo Inaceptable para la Seguridad Nacional.

Anthropic contraataca al Pentágono, presentando declaraciones juradas que desmienten el supuesto "riesgo inaceptable" de su inteligencia artificial.

Publicado por: admin (soyreportero)

2026/03/21 | 13:06

Calificación

0 / 5 (0 votos)

Reportes

0

Anthropic contra el Pentágono: Revelan la Verdad Oculta que desmiente el Riesgo Inaceptable para la Seguridad Nacional.

Fuente: https://images.pexels.com/photos/97509/pexels-photo-97509.jpeg?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

La Batalla Frontal: Anthropic Desafía al Pentágono con Pruebas Contundentes

La tensión entre la innovación tecnológica y la seguridad nacional ha alcanzado un punto de ebullición. Anthropic, una de las compañías líderes en inteligencia artificial, ha lanzado una ofensiva legal contra el Departamento de Defensa de EE. UU. La empresa presentó dos declaraciones juradas en un tribunal federal de California, buscando desmantelar la grave acusación del Pentágono de que su tecnología representa un "riesgo inaceptable para la seguridad nacional". Este movimiento no solo busca limpiar el nombre de la compañía, sino que podría sentar un precedente histórico en la relación entre Silicon Valley y el poder militar.

La Falsedad Central y el Correo Revelador

La primera declaración proviene de Sarah Heck, Jefa de Políticas de Anthropic y exfuncionaria del Consejo de Seguridad Nacional. Heck ataca directamente lo que describe como una "falsedad central" en los argumentos del gobierno: la idea de que Anthropic exigió un rol de aprobación sobre las operaciones militares. "En ningún momento durante nuestras negociaciones con el Departamento, ni yo ni ningún otro empleado de Anthropic declaramos que la compañía quería ese tipo de rol", escribió Heck de manera categórica.

El documento más explosivo adjuntado por Heck es un correo electrónico del 4 de marzo, enviado por el Subsecretario de Defensa Emil Michael al CEO de Anthropic, Dario Amodei. En el correo, Michael afirma que ambas partes estaban "muy cerca" de un acuerdo en los dos puntos que el gobierno ahora usa como prueba de la amenaza: el uso de la IA en armas autónomas y en la vigilancia masiva de ciudadanos estadounidenses. Esta revelación choca frontalmente con las declaraciones públicas de Michael días después, donde negaba negociaciones activas y cualquier posibilidad de reanudarlas. La cronología sugiere que la designación de riesgo pudo haber sido una táctica de presión más que una preocupación de seguridad genuina.

El Argumento Técnico que Desarma al Pentágono

La segunda declaración, firmada por Thiyagu Ramasamy, Jefe del Sector Público de Anthropic y exexperto en IA de Amazon Web Services para clientes gubernamentales, se enfoca en desmentir las preocupaciones técnicas del Pentágono desde su raíz. Ramasamy argumenta que la idea de que Anthropic pueda interferir o desactivar su tecnología una vez desplegada es, sencillamente, una ficción técnica.

Sistemas 'Air-Gapped': La Fortaleza Inexpugnable

Ramasamy explica que una vez que el modelo de IA Claude se implementa en un sistema gubernamental seguro y "air-gapped" (aislado de redes externas), operado por un contratista externo, Anthropic pierde todo tipo de acceso. No existe un "interruptor de apagado" remoto, ni puertas traseras, ni mecanismos para enviar actualizaciones no autorizadas. Cualquier cambio en el modelo requeriría la aprobación y acción explícita del propio Pentágono para ser instalado. Según Ramasamy, la compañía ni siquiera puede ver qué están escribiendo los usuarios gubernamentales en el sistema, y mucho menos extraer datos.

Además, refuta la preocupación sobre la contratación de ciudadanos extranjeros, señalando un hecho clave: los empleados de Anthropic han pasado por el mismo proceso de investigación de seguridad del gobierno de EE. UU. que se requiere para acceder a información clasificada. Afirma que, hasta donde sabe, Anthropic es la única empresa de IA donde personal con estas autorizaciones de seguridad ha construido directamente los modelos diseñados para operar en entornos clasificados.

Un Choque de Principios con Futuro Incierto

La demanda de Anthropic se basa en que la designación de riesgo es una represalia gubernamental por sus posturas públicas sobre la seguridad de la IA, violando la Primera Enmienda. El gobierno, por su parte, insiste en que se trata de una decisión de negocio y seguridad nacional, no de un castigo por las opiniones de la empresa. Con una audiencia programada ante la jueza Rita Lin en San Francisco, el resultado de este caso no solo definirá el futuro de Anthropic, sino que establecerá las reglas del juego para todas las empresas tecnológicas que buscan colaborar con los gobiernos en la era de la inteligencia artificial.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.