Anthropic planta cara al Pentágono y reabre el debate ético sobre la IA militar
Dario Amodei rechaza eliminar límites a Claude para vigilancia masiva y armas autónomas, pese a presiones del Pentágono.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/10486830/pexels-photo-10486830.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Anthropic ha decidido tensar la cuerda con el Pentágono en un choque que va mucho más allá de un contrato tecnológico. Su cofundador y CEO, Dario Amodei, publicó un comunicado para dejar claro que la empresa no piensa cruzar dos líneas rojas: permitir espionaje masivo con IA y contribuir al desarrollo de armas autónomas letales usando sus modelos. La escena, por incómoda que resulte, recuerda a un episodio histórico que Estados Unidos conoce demasiado bien: el giro de héroe a paria que vivió J. Robert Oppenheimer cuando intentó frenar la escalada nuclear tras Hiroshima y Nagasaki.El paralelismo no es casual. Entonces, el Estado acabó imponiendo la idea de que el conocimiento científico era, en la práctica, propiedad gubernamental. Y que quien intentara poner límites éticos a un proyecto estratégico podía ser tratado como un enemigo. Hoy, el protagonista que defiende una barrera moral ya no es un físico del Proyecto Manhattan, sino el líder de una empresa de IA cuyo modelo —Claude— se ha vuelto cada vez más relevante dentro del propio Gobierno de EEUU.Según la información disponible, Claude ha demostrado una capacidad tan notable que incluso se habría utilizado para planificar el arresto del expresidente de Venezuela, Nicolás Maduro. Esa utilidad, precisamente, es la que ha colocado a Anthropic “entre la espada y la pared”. Para que el Departamento de Defensa pudiera usar el modelo, la compañía impuso condiciones explícitas: nada de vigilancia masiva de ciudadanos estadounidenses y nada de apoyo a armas letales autónomas. Al Pentágono, sin embargo, esas restricciones le sobran. Quiere eliminarlas y operar “sin cortapisas”, argumentando que bastaría con respetar la Constitución y las leyes de EEUU.La presión no se ha quedado en una negociación dura. El Pentágono ha amenazado con castigar a Anthropic si no cede, y ha deslizado una posibilidad especialmente grave: calificar a la empresa como “un riesgo para la cadena de suministro”, una etiqueta que suele reservarse para compañías asociadas a países rivales como China o Rusia. Amodei subrayó la contradicción de ese movimiento: por un lado, se insinuaría que Anthropic es una amenaza; por otro, se trataría a Claude como una pieza esencial para la seguridad nacional.El trasfondo inquieta por una razón sencilla: si el Gobierno considera una tecnología crítica, puede intentar “nacionalizarla” de facto, apropiándose de su control o condicionando su desarrollo. La comparación con la bomba atómica aparece aquí como advertencia, no como metáfora fácil. Y el riesgo, en el caso de la IA, tiene dos caras. La primera es la vigilancia masiva, que en nombre de la seguridad puede erosionar la democracia desde dentro; el escándalo de la NSA se cita como ejemplo de hasta dónde pueden llegar esas prácticas. La segunda es todavía más delicada: el uso de modelos fundacionales para armas autónomas letales.Amodei sostiene que estos sistemas “simplemente no son lo suficientemente fiables” para impulsar armamento totalmente autónomo y que Anthropic no proporcionará un producto que ponga en riesgo a combatientes y civiles estadounidenses. Incluso ofrece ayudar al Departamento de Defensa en una “transición a otro proveedor” si la relación se rompe. Aun así, el desenlace sigue abierto.Si el Pentágono ejecuta su amenaza y veta a Anthropic, el mensaje para toda la industria sería difícil de ignorar: en la era de la IA, los objetores de conciencia pueden quedarse sin espacio. Quien desarrolle una ventaja tecnológica con valor militar corre el riesgo de quedar a merced del Estado. Ese es el nuevo “Momento Oppenheimer” que asoma en 2026: no solo condiciona el futuro de Anthropic, sino también el tipo de límites —o su ausencia— con los que se construirá la próxima generación de inteligencia artificial.