Anthropic rechaza acceso militar sin límites a su IA y propone dos salvaguardas clave
Dario Amodei se niega a dar acceso irrestricto al Pentágono y exige límites contra vigilancia masiva y armas autónomas.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/33108192/pexels-photo-33108192.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Anthropic se plantó ante el Departamento de Defensa de Estados Unidos. Su CEO, Dario Amodei, dijo el jueves que “no puede, en buena conciencia, acceder” a la solicitud del Pentágono de obtener acceso irrestricto a los sistemas de IA de la compañía. En una declaración pública, Amodei dejó claro que entiende quién toma las decisiones en el terreno: “Anthropic entiende que el Departamento de Guerra, no las empresas privadas, toma decisiones militares”. Pero, aun así, sostuvo que hay usos de la IA que pueden chocar de frente con valores democráticos o, directamente, exceder lo que la tecnología actual puede hacer de forma segura y confiable.La postura de Anthropic se resume en dos líneas rojas muy concretas. La primera: no habilitar la vigilancia masiva de estadounidenses. La segunda: no permitir armas totalmente autónomas, sin un humano “en el circuito” de decisión. Amodei presentó estas condiciones como un conjunto “estrecho” de salvaguardas, no como un intento de dirigir la política de defensa.Del otro lado, el Pentágono sostiene que debería poder usar el modelo de Anthropic para cualquier propósito legal y que el alcance de esos usos no tendría que estar condicionado por una empresa privada. La tensión escaló porque la declaración de Amodei llegó a menos de 24 horas de un ultimátum: el viernes a las 5:01 PM vence el plazo que el secretario de Defensa, Pete Hegseth, le dio a Anthropic para aceptar las demandas o “enfrentar las consecuencias”.Según lo reportado, el Departamento de Defensa intentó forzar la mano de la compañía con dos amenazas de alto voltaje. Una sería etiquetar a Anthropic como “riesgo para la cadena de suministro”, una designación reservada para adversarios extranjeros. La otra: invocar la Defense Production Act (DPA), una herramienta que le da al presidente autoridad para obligar a empresas a priorizar o expandir producción para la defensa nacional. Amodei subrayó la contradicción: “Una nos etiqueta como riesgo de seguridad; la otra etiqueta a Claude como esencial para la seguridad nacional”.Aun con el tono firme, el mensaje no fue de ruptura automática. Amodei dijo que su “fuerte preferencia” es seguir sirviendo al Departamento y a los combatientes, pero con esas dos salvaguardas incluidas. Y agregó una salida pragmática: si el Departamento decide prescindir de Anthropic, la empresa colaborará para una transición ordenada hacia otro proveedor, evitando interrupciones en planificación militar, operaciones u otras misiones críticas.El contexto importa: Anthropic es, actualmente, el único laboratorio de IA de frontera con sistemas “listos” para entornos clasificados del ámbito militar. A la vez, el Departamento de Defensa estaría preparando a xAI para asumir ese tipo de trabajo. En otras palabras, lo que está en juego no es solo un contrato: es quién fija los límites —y con qué urgencia— en el uso militar de modelos avanzados de IA.