Altman firma con el Pentágono: promesas de salvaguardas y un contrato de “todo uso legal”
OpenAI sustituye a Anthropic en el Pentágono, pero el acuerdo permite usos “legales” que chocan con líneas rojas públicas.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/29912371/pexels-photo-29912371.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Sam Altman vuelve a protagonizar uno de esos giros que dejan a medio sector tecnológico con cara de “esto ya lo he visto”. En menos de 48 horas, el CEO de OpenAI pasó de pedir internamente que se “desescalase” el choque entre Anthropic y el Departamento de Defensa de Estados Unidos a anunciar, en Twitter, un acuerdo para desplegar modelos de OpenAI en la red clasificada del propio Departamento.El contexto lo explica casi todo. El Gobierno de EEUU ha endurecido su postura: si una empresa quiere trabajar con Defensa, debe aceptar que la IA se use “como mejor les parezca”, siempre que sea legal. En ese escenario, Anthropic —que llevaba meses colaborando con el Gobierno— decidió plantarse. Marcó líneas rojas y no aceptó los términos. En los pasillos del Pentágono se habló incluso de convertirla en una “empresa paria”, aunque por ahora no hay movimientos oficiales. Lo que sí ocurrió fue el cambio de socio: OpenAI entró por la puerta grande.Altman presentó el acuerdo como un despliegue con límites claros: nada de espiar a ciudadanos estadounidenses, nada de armas autónomas letales, y una salvaguarda adicional contra sistemas de “crédito social” para puntuar a la población según datos recolectados. En el anuncio oficial, OpenAI llegó a presumir de que su pacto incluye “más salvaguardas que cualquier acuerdo previo” para IA clasificada, “incluyendo el de Anthropic”.El problema aparece cuando se leen los términos citados en el propio anuncio. El texto permite al Departamento usar el sistema “para todos los fines legales”, de acuerdo con legislación aplicable, requisitos operativos y protocolos de seguridad y supervisión. Y añade un matiz clave: la IA no se usará para dirigir armas autónomas de forma independiente “en ningún caso en que la ley, la normativa o la política del Departamento exijan control humano”. Es decir, la frontera no la marca una promesa ética, sino lo que sea legal o esté permitido por política interna.Esa formulación abre una grieta incómoda. El espionaje masivo a ciudadanos estadounidenses puede ser legal en determinados escenarios bajo la Patriot Act, aprobada tras el 11-S. Si es legal, la IA podría procesar datos y comunicaciones recolectadas por sistemas de vigilancia masiva. Jeremy Lewin, funcionario del Departamento de Estado, lo resumió sin rodeos: este acuerdo “fluye desde el pilar de ‘todo uso legítimo’”.Mientras tanto, la tensión también se cocinó dentro de las propias tecnológicas. El viernes pasado vencía el plazo para que Anthropic aceptara los términos, y no lo hizo. Esa misma mañana, empleados de OpenAI y Google mostraron apoyo al posicionamiento de Anthropic: casi 800 firmaron una carta abierta titulada “No seremos divididos” (681 de Google y 96 de OpenAI).La reacción pública no tardó. En Reddit se viralizaron mensajes llamando a “Cancelar ChatGPT”, con miles de votos y comentarios cargados de indignación. No es la primera vez que una empresa recibe un golpe reputacional en redes, y tampoco sería la primera que se recupera con el tiempo. Pero esta vez el debate va más allá del enfado pasajero: pone el foco en una pregunta incómoda para toda la industria de la IA. Cuando un contrato se apoya en “todo uso legal”, ¿quién define realmente las líneas rojas?