El Escándalo IA: Gigantes Tecnológicos Unen Fuerzas Contra el Pentágono por la Designación de Anthropic como Riesgo de Suministro
Empleados de OpenAI y Google apoyan la demanda de Anthropic contra el Pentágono por etiquetar a la firma IA como riesgo de suministro.
Calificación
0 / 5 (0 votos)
Fuente: https://ederstorage.blob.core.windows.net/ederstorage/soyreportero/tRepMedia/526-10913bd7-79a7-40ac-a620-455d79ebdb49.jpg
Categoría: Tecnología
La comunidad tecnológica ha encendido las alarmas tras una controversial decisión del Departamento de Defensa de EE. UU. (DOD), que etiquetó a la firma de inteligencia artificial Anthropic como un "riesgo en la cadena de suministro". Este movimiento, usualmente reservado para adversarios extranjeros, ha provocado una respuesta sin precedentes: más de 30 empleados de gigantes como OpenAI y Google DeepMind han presentado una declaración formal de apoyo a la demanda de Anthropic contra el DOD.La raíz del conflicto radica en la negativa de Anthropic a permitir que el Pentágono utilice su avanzada tecnología de IA para la vigilancia masiva de ciudadanos estadounidenses o para el despliegue autónomo de armas. El DOD, por su parte, argumentó que debería poder emplear la IA para cualquier propósito "legal" sin las restricciones impuestas por un contratista privado. Sin embargo, este choque de principios ha escalado a una disputa legal que pone en juego el futuro ético del desarrollo de la inteligencia artificial.El escrito de apoyo, conocido como "amicus brief", llegó al tribunal pocas horas después de que Anthropic presentara dos demandas contra el DOD y otras agencias federales. "La designación del gobierno de Anthropic como riesgo de la cadena de suministro fue un uso indebido y arbitrario de poder que tiene serias ramificaciones para nuestra industria", reza el documento, que cuenta entre sus firmantes con el científico jefe de Google DeepMind, Jeff Dean.Los empleados de Google y OpenAI señalan en el expediente judicial que, si el Pentágono "ya no estaba satisfecho con los términos acordados de su contrato con Anthropic", la agencia podría haber "simplemente cancelado el contrato y comprado los servicios de otra empresa líder en IA". Curiosamente, el DOD firmó un acuerdo con OpenAI casi de inmediato después de designar a Anthropic como riesgo, una maniobra que muchos empleados de la propia OpenAI han protestado.Este esfuerzo por castigar a una de las empresas líderes en IA de EE. UU. no pasará desapercibido. "Si se permite que esto avance, este esfuerzo por castigar a una de las empresas líderes en IA de EE. UU. sin duda tendrá consecuencias para la competitividad industrial y científica de Estados Unidos en el campo de la inteligencia artificial y más allá", advierte el escrito. Además, la acción "enfriará la deliberación abierta en nuestro campo sobre los riesgos y beneficios de los sistemas de IA actuales".La batalla legal también subraya la importancia de las "líneas rojas" éticas que los desarrolladores de IA intentan imponer. En ausencia de una ley pública que regule el uso de la IA, las restricciones contractuales y técnicas impuestas por los creadores de sistemas son una salvaguardia crítica contra un posible uso catastrófico. Este caso no solo definirá la relación entre la tecnología y el poder militar, sino que también establecerá un precedente vital para la gobernanza y la ética en la era de la inteligencia artificial avanzada.