Trump ordena retirar productos de Anthropic del gobierno y el Pentágono la marca riesgo
La Casa Blanca ordena dejar de usar Anthropic; Defensa la declara riesgo de cadena de suministro tras disputa por límites éticos.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/13226195/pexels-photo-13226195.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Una disputa sobre los límites de uso de la inteligencia artificial dentro del aparato militar estadounidense escaló en cuestión de horas a una decisión política de alto impacto. En una publicación en Truth Social, el presidente Donald Trump ordenó a las agencias federales que cesen el uso de “todos los productos de Anthropic” tras el choque público de la empresa con el Departamento de Defensa. Aunque concedió un periodo de transición de seis meses para los departamentos que ya dependen de esas herramientas, el mensaje fue tajante: Anthropic, según el presidente, deja de ser bienvenida como contratista federal. “No lo necesitamos, no lo queremos, y no volveremos a hacer negocios con ellos”, escribió.El post presidencial no incluyó, sin embargo, un elemento que se había mencionado previamente como posible consecuencia: la designación de Anthropic como riesgo para la cadena de suministro. Esa omisión duró poco. En un tuit posterior, el secretario de Defensa, Pete Hegseth, afirmó que haría efectiva esa medida. “En conjunto con la directiva del Presidente… estoy ordenando al Departamento de Guerra designar a Anthropic un Riesgo de Cadena de Suministro para la Seguridad Nacional”, escribió. Y añadió una cláusula especialmente dura: con efecto inmediato, ningún contratista, proveedor o socio que haga negocios con el Ejército de Estados Unidos podrá realizar actividad comercial con Anthropic.El núcleo del conflicto es claro y, a la vez, incómodo: Anthropic se negó a permitir que sus modelos de IA se usen para dos fines concretos, la vigilancia masiva doméstica y las armas totalmente autónomas. Hegseth consideró esas restricciones “indebidamente” limitantes. El CEO de Anthropic, Dario Amodei, reiteró públicamente su postura el jueves, sin abrir la puerta a concesiones en esos dos puntos. Aun así, intentó bajar la temperatura operativa del choque: dijo que su preferencia era seguir sirviendo al Departamento y a los “warfighters” con esas salvaguardas, y que, si el Departamento decide desconectar a Anthropic, la compañía colaborará para una transición fluida a otro proveedor, evitando interrupciones en planificación militar, operaciones u otras misiones críticas.La controversia también reordenó alianzas en el sector. OpenAI salió en respaldo de la decisión de Anthropic. Según la BBC, Sam Altman envió un memo interno el jueves señalando que comparte las mismas “líneas rojas” y que cualquier contrato de defensa relacionado con OpenAI también rechazaría usos “ilegales o inadecuados para despliegues en la nube”, como la vigilancia doméstica y las armas ofensivas autónomas. Incluso Ilya Sutskever, cofundador de OpenAI y hoy al frente de su propia compañía tras su ruptura pública con Altman, intervino en X el viernes para subrayar la relevancia del momento: celebró que Anthropic no cediera y que OpenAI adoptara una postura similar, anticipando que vendrán situaciones aún más difíciles donde competidores deberán dejar de lado diferencias.El episodio llega, además, con un antecedente directo: Anthropic, OpenAI y Google recibieron adjudicaciones de contratos del Departamento de Defensa en julio pasado. Mientras algunos empleados de Google expresaron apoyo a Anthropic, la empresa y su matriz todavía no han comentado oficialmente.Más allá de nombres y comunicados, el caso deja una pregunta que ya no es teórica: ¿quién fija los límites de la IA cuando se cruza con seguridad nacional? Esta vez, la respuesta se definió con una orden presidencial, una designación de “riesgo” y un mensaje inequívoco al mercado: las condiciones éticas que una empresa impone a su tecnología pueden convertirse, de un día para otro, en el centro de una batalla política y contractual.