S O Y R E P O R T E R O

El Controvertido Acuerdo de OpenAI con el Pentágono: ¿Transparencia o Doble Rasero?

OpenAI sella un acuerdo con el Pentágono que genera controversia, levantando serias dudas sobre la transparencia y su ética.

Publicado por: admin (soyreportero)

2026/03/10 | 01:56

Calificación

0 / 5 (0 votos)

Reportes

0

El Controvertido Acuerdo de OpenAI con el Pentágono: ¿Transparencia o Doble Rasero?

Fuente: https://ederstorage.blob.core.windows.net/ederstorage/soyreportero/tRepMedia/529-8561ed10-6e8b-49ca-85ff-5509de596d99.jpg

Categoría: Tecnología

En un giro que ha dejado a muchos expertos y observadores con la ceja levantada, OpenAI, la empresa liderada por Sam Altman, ha sellado un polémico acuerdo con el Departamento de Defensa de Estados Unidos (DoD). Esta alianza, que promete integrar sus modelos de Inteligencia Artificial en agencias gubernamentales, se produce justo después de que Anthropic, un competidor directo, perdiera un contrato similar por negarse a flexibilizar sus propias 'líneas rojas' éticas en el uso militar de su IA.

La controversia radica en que, mientras Anthropic fue etiquetada como un "riesgo para la cadena de suministro" por su firmeza en no permitir el espionaje masivo o el desarrollo de armas autónomas, OpenAI asegura haber establecido requisitos y líneas rojas "similares". Sin embargo, hay un problema fundamental: OpenAI se niega a hacer público el contrato que respalde estas afirmaciones. La jefa de seguridad nacional de la firma, Katrina Muligan, llegó a afirmar públicamente que no se siente "obligada" a compartir el lenguaje legal del acuerdo, lo que ha disparado las alarmas sobre la verdadera naturaleza de lo pactado.

Esta opacidad es el primer gran escollo. El segundo, y quizás más preocupante, es la insistencia de OpenAI en que "solo necesitamos confiar en ellos". Una petición audaz viniendo de una compañía cuya reputación, especialmente la de su CEO, no es precisamente sinónimo de previsibilidad. El propio Altman intentó calmar las aguas explicando que se habían añadido enmiendas para asegurar el respeto de esas líneas rojas, pero sin el texto del contrato, estas palabras suenan vacías.

Brad Carson, exsecretario del Ejército de EE. UU. durante la administración Obama, ha señalado un detalle crucial. En sus mensajes, Altman mencionó que "el sistema de IA no se usará intencionadamente para la vigilancia doméstica de ciudadanos estadounidenses". Ese adverbio, "intencionadamente", es un comodín peligroso. Según Carson, permite que, si bien no se espía *directamente* a ciudadanos, la captura de datos de extranjeros pueda "accidentalmente" incluir información de estadounidenses de forma sistemática. "Están tratando de confundirte con términos legales complicados", explica Carson, "pero los abogados saben lo que significa. Y los abogados saben que esto no es ninguna protección."

Este acuerdo no solo ha provocado críticas externas, sino también fisuras internas. La directora de robótica de OpenAI, Caitlin Kalinowski, ha dimitido de su cargo, citando preocupaciones sobre las negociaciones militares de la empresa. La integración de la IA de OpenAI en el DoD recae ahora bajo la supervisión política, lo que añade otra capa de incertidumbre ética.

La pregunta más obvia que surge es: ¿por qué el Departamento de Defensa rechazó las líneas rojas de Anthropic y, sin embargo, permite a OpenAI establecer básicamente las mismas? La situación no solo carece de sentido lógico, sino que también pone en tela de juicio el compromiso inicial de OpenAI de crear IA "para el beneficio de la humanidad", una premisa que parece haberse desdibujado por completo en este culebrón geopolítico y tecnológico.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.