Pentágono presiona a Anthropic para eliminar límites éticos en el uso militar de Claude
EEUU exige a Anthropic retirar restricciones de Claude para usos militares y de espionaje, invocando leyes y emergencia nacional.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/6896221/pexels-photo-6896221.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
La relación entre el Gobierno de Estados Unidos y las grandes empresas de IA acaba de entrar en una zona especialmente delicada. El Pentágono ha dado a Anthropic un ultimátum: tiene hasta este viernes a las 17:01 para aceptar que sus modelos de IA puedan usarse sin restricciones adicionales, más allá de lo que permitan la Constitución y las leyes estadounidenses. En la práctica, eso incluye aplicaciones de espionaje y usos militares. Anthropic, por ahora, se ha negado.El choque nace de las “líneas rojas” que la compañía —liderada por Dario Amodei— ha defendido como parte de su enfoque de seguridad: no quiere que sus modelos se utilicen para vigilancia masiva de ciudadanos estadounidenses (un matiz importante: no menciona a ciudadanos de otros países) ni para desarrollar o emplear armas letales autónomas controladas totalmente por IA. Para el Departamento de Defensa (DoD), esas limitaciones son inaceptables: su postura es que una empresa privada no debería vetar usos de una tecnología si esos usos son legales y están definidos por los militares.La tensión escaló tras lo que ya se conoce internamente como el “incidente Maduro”. En enero, el modelo Claude habría sido utilizado en una operación de fuerzas especiales de EEUU para capturar al expresidente venezolano Nicolás Maduro. Ese episodio puso el foco en un hecho clave: el ejército depende de Claude más de lo que parecía, y Anthropic es actualmente la única empresa de IA que opera en sistemas clasificados del Pentágono. Esa posición de fuerza, que en su día fue una ventaja competitiva, ahora se ha convertido en el centro del conflicto.El Gobierno baraja varias vías de presión, y ninguna es menor. La primera sería cancelar el contrato y migrar a proveedores más flexibles. De hecho, ya se sabe que xAI ha firmado un acuerdo para que el DoD pueda usar Grok en sistemas clasificados, y Google aparece como otra opción en estudio. La segunda opción es mucho más agresiva: catalogar a Anthropic como un riesgo para la cadena de suministro, lo que equivaldría a un veto interno al estilo del aplicado a Huawei, pero contra una empresa estadounidense. Para Anthropic y sus inversores —entre ellos Amazon y Google— el golpe podría ser devastador.La tercera vía es la más polémica: invocar el Título 1 de la Defense Production Act de 1950, una norma creada para situaciones de guerra o emergencia nacional. Se usó durante la pandemia de COVID-19 para acelerar suministros médicos y vacunas. Aplicarla a la propiedad intelectual de una empresa de software para forzar el acceso y el uso de modelos de IA sentaría un precedente enorme, aunque se considera poco probable.Este pulso tiene un contexto político claro. La administración Biden impulsó medidas y límites éticos para restringir ciertas aplicaciones de la IA, pero el escenario cambió con el mandato de Donald Trump. En junio de 2025, Anthropic lanzó Claude Gov, una familia de modelos pensada específicamente para agencias de seguridad, defensa e inteligencia, preparada para operar con información clasificada. Para ganar terreno, la empresa los ofreció por un precio simbólico de 1 dólar. Poco después llegó un contrato de 200 millones de dólares, y desde entonces la integración con sistemas de Palantir en agencias gubernamentales ha ido a más.El dilema, ahora, va mucho más allá de Anthropic. Si el Pentágono logra imponer su criterio, quedará abierto el camino para que el Estado intervenga tecnología privada bajo el argumento de emergencia nacional. Y eso obligará a todas las Big Tech a responder una pregunta incómoda: ¿hasta dónde están dispuestas a ceder el control de sus modelos de IA cuando el cliente es el poder militar?