EE. UU. rompe con Anthropic y reabre el debate sobre IA, seguridad y regulación
La Casa Blanca veta a Anthropic tras negarse a vigilancia masiva y drones autónomos, reavivando el vacío regulatorio.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/35652417/pexels-photo-35652417.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
El viernes por la tarde, mientras se realizaba una entrevista, saltó una alerta que sacudió al ecosistema de la inteligencia artificial: la administración Trump cortaba lazos con Anthropic, la empresa de San Francisco fundada en 2021 por Dario Amodei. El secretario de Defensa, Pete Hegseth, invocó una ley de seguridad nacional para incluir a la compañía en una lista negra que le impide hacer negocios con el Pentágono. El motivo, según lo contado en la conversación: Amodei se negó a permitir que la tecnología de Anthropic se usara para vigilancia masiva de ciudadanos estadounidenses o para drones armados autónomos capaces de seleccionar y matar objetivos sin intervención humana.La decisión tiene impacto inmediato. Anthropic se arriesga a perder un contrato de hasta 200 millones de dólares y, además, quedaría bloqueada para colaborar con otros contratistas de defensa. El golpe se amplificó cuando el propio presidente Trump publicó en Truth Social una orden para que todas las agencias federales “cesen de inmediato todo uso de tecnología de Anthropic”. La empresa, por su parte, ya dijo que impugnará la medida en los tribunales.Para Max Tegmark, físico del MIT y fundador del Future of Life Institute, el episodio es tan llamativo como predecible. Lleva casi una década advirtiendo que la carrera por construir sistemas cada vez más potentes va mucho más rápido que la capacidad del mundo para gobernarlos. En su lectura, el problema de fondo no empieza en el Pentágono, sino años atrás: la resistencia de la industria a una regulación vinculante. Tegmark acusa a Anthropic, OpenAI, Google DeepMind y xAI de haber apostado por la autorregulación, con grandes promesas públicas de “seguridad”, pero sin apoyar leyes que obliguen a todos por igual.El entrevistado fue especialmente duro al enumerar retrocesos recientes: Google abandonó compromisos históricos; OpenAI eliminó la palabra “seguridad” de su declaración de misión; xAI desmanteló su equipo de seguridad; y, según Tegmark, Anthropic dejó caer esta semana el núcleo de su propia promesa: no lanzar sistemas cada vez más poderosos hasta estar seguros de que no causarían daño. En ese vacío, argumenta, hoy hay menos regulación para la IA en Estados Unidos que para abrir una simple sandwichería.La defensa habitual de las empresas, dice Tegmark, es el fantasma de China: “si no lo hacemos nosotros, lo harán ellos”. Pero su contraargumento es igual de directo. Señala que China está avanzando para prohibir las “IA novias” por su impacto en la juventud, y que un sistema de “superinteligencia” incontrolable sería una amenaza para cualquier gobierno, incluido el chino, precisamente porque el Partido Comunista prioriza el control.En paralelo, Tegmark advierte que la tecnología se está acercando más rápido de lo que muchos creían. Recuerda que hace seis años la mayoría de expertos pensaba que la IA tardaría décadas en dominar el lenguaje y el conocimiento a nivel humano, y “se equivocaron”. Afirma que el progreso ha saltado de niveles escolares a niveles de investigación avanzada, y cita que el año pasado la IA ganó el oro en la Olimpiada Internacional de Matemáticas. En un trabajo reciente con investigadores como Yoshua Bengio y Dan Hendrycks, dice, se propuso una definición rigurosa de AGI: bajo esa métrica, GPT-4 estaría al 27% y GPT-5 al 57%.El caso Anthropic también deja una pregunta incómoda para el resto del sector: si una empresa se niega a cruzar ciertas líneas, ¿otra tomará su lugar? Tras la entrevista, OpenAI anunció su propio acuerdo con el Pentágono, mientras Sam Altman dijo respaldar a Anthropic y compartir “líneas rojas”. Para Tegmark, el desenlace “bueno” existe, pero requiere un giro: tratar a las empresas de IA como a cualquier otra, sin amnistía corporativa, con pruebas independientes antes de liberar sistemas tan potentes. Solo así, sostiene, podría llegar una edad dorada de beneficios sin la ansiedad existencial.