OpenAI acelera acuerdo con el Pentágono y marca límites a vigilancia y armas autónomas
Tras el veto federal a Anthropic, OpenAI cerró un acuerdo acelerado con Defensa y prometió límites estrictos de uso.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/1895900/pexels-photo-1895900.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
OpenAI terminó en el centro de una tormenta política y tecnológica tras admitir que su acuerdo con el Departamento de Defensa de Estados Unidos fue “definitivamente apresurado” y que “la óptica no se ve bien”. La prisa no fue casual: llegó justo después de que las negociaciones entre Anthropic y el Pentágono se rompieran el viernes, y de que el presidente Donald Trump ordenara a las agencias federales dejar de usar la tecnología de Anthropic tras un período de transición de seis meses. En paralelo, el secretario de Defensa, Pete Hegseth, calificó a Anthropic como un riesgo para la cadena de suministro.En ese vacío, OpenAI anunció rápidamente un trato para desplegar sus modelos en entornos clasificados. La jugada levantó preguntas inevitables. Si Anthropic decía estar trazando líneas rojas contra el uso en armas totalmente autónomas o en vigilancia masiva doméstica, y Sam Altman aseguraba que OpenAI tenía las mismas líneas, ¿por qué una empresa sí pudo cerrar y la otra no? ¿Son equivalentes sus salvaguardas o solo su discurso?Para responder, OpenAI publicó una entrada de blog donde detalla tres usos prohibidos de sus modelos: vigilancia masiva doméstica, sistemas de armas autónomas y “decisiones automatizadas de alto impacto” como esquemas de “crédito social”. La compañía defendió que, a diferencia de otros laboratorios que habrían “reducido o eliminado” barandillas de seguridad y se apoyan principalmente en políticas de uso, su acuerdo protege esas líneas rojas con un enfoque “más amplio y multicapa”. Según OpenAI, mantiene “plena discreción” sobre su “stack” de seguridad, despliega vía nube, incorpora personal de OpenAI con habilitación de seguridad “en el circuito” y suma protecciones contractuales, además de las ya existentes en la ley estadounidense.Sin embargo, la letra pequeña abrió otro frente. Tras publicarse el post, Mike Masnick (Techdirt) afirmó que el acuerdo “absolutamente permite vigilancia doméstica”, al mencionar que la recolección de datos privados cumpliría con la Orden Ejecutiva 12333, que —según su crítica— se usa para capturar comunicaciones fuera de EE. UU. aunque involucren a estadounidenses.Desde OpenAI, Katrina Mulligan, responsable de alianzas de seguridad nacional, respondió que el debate se está simplificando: no todo depende de “una cláusula” en “un contrato”. Para ella, la arquitectura de despliegue pesa más. Al limitarse a una API en la nube, argumentó, los modelos no pueden integrarse directamente en armas, sensores u otro hardware operativo.Altman, mientras tanto, reconoció el costo reputacional: el acuerdo provocó un fuerte backlash, hasta el punto de que Claude (Anthropic) superó a ChatGPT en la App Store de Apple el sábado. ¿Por qué seguir adelante? Altman dijo que buscaban “desescalar” la tensión entre el Departamento de Defensa y la industria. Si funciona, sostuvo, OpenAI quedará como la empresa que soportó el golpe para “ayudar al sector”. Si no, aceptó, la etiqueta será la de siempre: apresurados y poco cuidadosos.