La Defensa Inesperada y la Verdadera Advertencia
En un giro sorprendente durante la conferencia “Future of Everything” del Wall Street Journal, el magnate de los medios Barry Diller, cofundador de Fox Broadcasting y presidente de IAC y Expedia Group, salió en defensa del polémico CEO de OpenAI, Sam Altman. Ante las acusaciones de manipulación y engaño por parte de excolegas, Diller lo describió como 'una persona decente con buenos valores'. Sin embargo, esta defensa fue solo el preludio de una advertencia mucho más profunda y alarmante sobre el futuro de la Inteligencia Artificial.
Diller argumentó que centrarse en la confianza que podamos depositar en líderes como Altman es un error fundamental. La verdadera preocupación, según él, no reside en la integridad de los creadores, sino en la naturaleza misma de lo que están creando. 'Uno de los grandes problemas de la IA es que va mucho más allá de la confianza', afirmó Diller. 'Puede que la confianza sea irrelevante porque las cosas que están sucediendo son una sorpresa incluso para las personas que las hacen posibles'.
Más Allá de la Confianza en los Líderes
El multimillonario compartió que, tras pasar tiempo con figuras clave en el desarrollo de la IA, ha percibido en ellos un 'sentido de asombro'. Esto sugiere que ni siquiera los arquitectos de esta revolución tecnológica tienen un control o una comprensión total de hacia dónde se dirige. 'Así que... es la gran incógnita. No sabemos. Ellos no saben', explicó Diller, subrayando la incertidumbre que rodea a esta tecnología transformadora. Esta declaración cambia el foco del debate: el problema no es si podemos confiar en los capitanes del barco, sino que el barco navega por aguas completamente desconocidas para todos.
La IA General (AGI): El Punto de No Retorno
El punto central de la advertencia de Diller se enfoca en la Inteligencia Artificial General (AGI), una forma teórica de IA que podría superar a los humanos en cualquier tarea cognitiva. Aunque todavía no hemos llegado a ese punto, Diller cree que nos acercamos 'más y más, más rápido y más rápido'. Es aquí donde el debate sobre la confianza se vuelve obsoleto y es reemplazado por una necesidad urgente de previsión y control.
El Reloj Corre: La Urgencia de los 'Guardarraíles'
Diller fue enfático en la necesidad de establecer 'guardarraíles' o barreras de protección para la IA. Su lógica es tan simple como escalofriante: si la humanidad no establece estas reglas, existe la posibilidad de que 'otra fuerza, una fuerza de AGI, lo haga por sí misma'. Este escenario, sacado de una trama de ciencia ficción, se presenta como una posibilidad real en la mente de uno de los hombres más influyentes de los medios.
La advertencia es clara: 'Y una vez que eso sucede, una vez que liberas eso, no hay vuelta atrás'. La creación de una inteligencia superior sin un marco de control predefinido podría significar la pérdida total de la agencia humana sobre nuestro propio futuro tecnológico.
Un Cambio Inevitable que lo Afectará Todo
Diller concluyó su intervención con una declaración contundente sobre el impacto inevitable de la IA. 'Nos hemos embarcado en algo que va a cambiar casi todo', afirmó, restando importancia a si las enormes inversiones actuales darán frutos económicos inmediatos. 'No estoy invertido en ello, pero el progreso se va a lograr'. Su perspectiva no es la de un inversor preocupado por el rendimiento, sino la de un observador estratégico que ve un cambio de paradigma fundamental en el horizonte.
El mensaje final es que el problema no es la gestión de los líderes actuales de la IA, sino la gestión de lo desconocido. La humanidad está lidiando con una fuerza que podría rediseñar la realidad tal como la conocemos, y según Diller, es imperativo que empecemos a pensar seriamente en las reglas del juego antes de que el juego empiece a jugar con nosotros.
Aún no hay comentarios. ¡Sé el primero en opinar!