Musk reabre el debate sobre seguridad en IA en su demanda contra OpenAI
Una declaración judicial de Musk cuestiona la seguridad de ChatGPT y contrasta con investigaciones recientes sobre Grok en X.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/30869075/pexels-photo-30869075.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
Un nuevo documento judicial volvió a encender una discusión que la industria tecnológica no logra cerrar: qué significa, en la práctica, “priorizar la seguridad” cuando se despliegan modelos de inteligencia artificial a gran escala. En una deposición recientemente publicada y presentada en el marco de la demanda de Elon Musk contra OpenAI, el empresario atacó el historial de seguridad de la compañía y defendió que su empresa, xAI, pone más énfasis en ese aspecto.En el testimonio, Musk lanzó una de sus frases más controvertidas al comparar productos: “Nadie se ha suicidado por Grok, pero aparentemente sí lo han hecho por ChatGPT”. La afirmación apareció durante una línea de preguntas relacionada con una carta pública que Musk firmó en marzo de 2023. En ese texto, los firmantes pedían a los laboratorios de IA pausar por al menos seis meses el desarrollo de sistemas más potentes que GPT-4, el modelo insignia de OpenAI en ese momento.La carta —suscrita por más de 1.100 personas, incluidas figuras del mundo de la IA— advertía que el sector estaba atrapado en una “carrera fuera de control” por desarrollar y desplegar “mentes digitales” cada vez más poderosas, difíciles de entender, predecir o controlar incluso para sus creadores. Con el tiempo, esos temores han ganado peso en el debate público. OpenAI enfrenta ahora una serie de demandas que alegan que las tácticas conversacionales manipulativas de ChatGPT habrían contribuido a efectos negativos en la salud mental de varias personas, incluyendo casos que terminaron en suicidio.El contexto legal es clave: la demanda de Musk se centra en el viraje de OpenAI desde un laboratorio de investigación sin fines de lucro hacia una empresa con fines de lucro. Musk sostiene que ese cambio violó acuerdos fundacionales y que las relaciones comerciales pueden empujar a priorizar velocidad, escala e ingresos por encima de la seguridad.La deposición, grabada en video en septiembre, fue incorporada públicamente esta semana, a las puertas de un juicio con jurado previsto para el próximo mes. En el documento, Musk también dijo que firmó la carta de 2023 porque “parecía una buena idea” y porque quería que se actuara con cautela: “Solo quería… que se priorizara la seguridad de la IA”.Sin embargo, el argumento de superioridad en seguridad de xAI llega en un momento incómodo para la propia empresa. El mes pasado, la red social X se vio inundada de imágenes de desnudos no consentidos generadas por Grok, algunas presuntamente de menores. Esto llevó a la oficina del Fiscal General de California a abrir una investigación. La Unión Europea también mantiene su propia investigación y otros gobiernos han tomado medidas, incluyendo bloqueos y prohibiciones.Musk respondió además sobre la inteligencia artificial general (AGI), señalando que “tiene un riesgo”, y reconoció que estaba “equivocado” respecto a su supuesta donación de 100 millones de dólares a OpenAI: la segunda demanda enmendada sitúa la cifra más cerca de 44,8 millones. También recordó su motivación original para impulsar OpenAI: su preocupación por el riesgo de que Google se convirtiera en un monopolio de IA y por conversaciones “alarmantes” con Larry Page, a quien, según Musk, no veía tomándose la seguridad lo suficientemente en serio.En conjunto, el testimonio deja una idea difícil de ignorar: la seguridad en IA ya no se discute solo en papers y conferencias, sino en tribunales, investigaciones regulatorias y demandas que podrían redefinir cómo se construyen —y se controlan— los sistemas que millones de personas usan cada día.