OpenAI firma con el Pentágono y promete frenar vigilancia masiva y armas autónomas
Sam Altman confirmó un acuerdo para usar IA de OpenAI en red clasificada, con límites a vigilancia y fuerza autónoma.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/28975867/pexels-photo-28975867.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Sam Altman, CEO de OpenAI, anunció el viernes por la noche que la compañía alcanzó un acuerdo para que el Departamento de Defensa de EE. UU. use sus modelos de IA dentro de la red clasificada del organismo. El movimiento llega tras un choque público y muy político entre el Pentágono —rebautizado “Department of War” durante la administración Trump— y Anthropic, uno de los principales rivales de OpenAI.El conflicto de fondo no era menor: el Departamento presionó a varias empresas para que sus modelos pudieran utilizarse “para todos los fines lícitos”. Anthropic, en cambio, intentó marcar límites claros, especialmente frente a dos escenarios que considera inaceptables: la vigilancia doméstica masiva y el uso de armas totalmente autónomas. En una declaración extensa publicada el jueves, el CEO de Anthropic, Dario Amodei, aseguró que la empresa “nunca” objetó operaciones militares específicas ni buscó limitar el uso de su tecnología “de manera ad hoc”. Aun así, defendió que existe “un conjunto estrecho de casos” en los que la IA puede socavar valores democráticos en lugar de protegerlos.La tensión escaló rápido. Más de 60 empleados de OpenAI y 300 de Google firmaron esta semana una carta abierta pidiendo a sus empleadores respaldar la postura de Anthropic. Pero las negociaciones entre Anthropic y el Pentágono no prosperaron. Entonces, el presidente Donald Trump atacó a la compañía en redes sociales, calificándola de “Leftwing nut jobs” y ordenando a las agencias federales dejar de usar sus productos tras un periodo de transición de seis meses.En paralelo, el secretario de Defensa, Pete Hegseth, acusó a Anthropic de intentar “tomar poder de veto” sobre decisiones operativas del ejército. Fue más allá: dijo que designaría a Anthropic como “riesgo para la cadena de suministro”, prohibiendo que contratistas, proveedores o socios que trabajen con el ejército mantengan actividad comercial con la empresa. Anthropic respondió el viernes que no había recibido comunicación directa del gobierno sobre el estado de las negociaciones, pero adelantó que impugnará en tribunales cualquier designación de ese tipo.En ese contexto, Altman sostuvo que el nuevo contrato de OpenAI incluye protecciones justamente sobre los puntos que detonaron la disputa. En X, afirmó que dos principios clave quedaron incorporados: prohibiciones sobre vigilancia doméstica masiva y la responsabilidad humana en el uso de la fuerza, incluso en sistemas de armas autónomas. También dijo que OpenAI construirá salvaguardas técnicas para asegurar el comportamiento esperado de los modelos y que desplegará ingenieros junto al Pentágono para apoyar el uso y “garantizar su seguridad”.Según Fortune, Altman explicó internamente que el gobierno permitiría a OpenAI construir su propio “safety stack” para prevenir abusos y que, si el modelo se niega a realizar una tarea, el gobierno no forzaría a la empresa a habilitarla. Altman pidió además que el Departamento ofrezca términos similares a todas las empresas de IA y llamó a “desescalar” el conflicto hacia acuerdos razonables, en lugar de choques legales y medidas punitivas.Su publicación llegó poco antes de que se conociera que los gobiernos de Estados Unidos e Israel habían comenzado a bombardear Irán, mientras Trump pedía el derrocamiento del gobierno iraní. La coincidencia subraya por qué estas cláusulas y límites importan: la IA ya no es solo una herramienta empresarial, sino una pieza que puede influir —para bien o para mal— en decisiones de seguridad nacional.