S O Y R E P O R T E R O

Sam Altman defiende el coste energético de la IA comparándolo con “entrenar” humanos durante décadas

Altman sostiene que la inferencia de ChatGPT es eficiente, pero faltan datos oficiales sobre energía y agua.

Publicado por: admin (soyreportero)

2026/02/23 | 10:16

Calificación

0 / 5 (0 votos)

Reportes

0

Sam Altman defiende el coste energético de la IA comparándolo con “entrenar” humanos durante décadas

Fuente: https://images.pexels.com/photos/12274476/pexels-photo-12274476.jpeg?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

La inteligencia artificial vuelve a colocarse en el centro del debate ambiental, pero esta vez con una comparación que no ha pasado desapercibida. Sam Altman, CEO de OpenAI, participó en un evento organizado por The Indian Express y, al ser preguntado por el consumo energético de ChatGPT, respondió con una idea tan provocadora como difícil de ignorar: “entrenar” humanos también consume muchísima energía.

Altman se quejó de que, a su juicio, muchas discusiones mezclan dos cosas distintas. Por un lado, el gasto de entrenar un modelo de IA; por otro, el coste de usarlo en el día a día, lo que en el sector se conoce como inferencia (cuando haces una consulta y el sistema responde). Según él, la comparación habitual es injusta porque enfrenta el enorme coste de entrenamiento de la IA con el pequeño esfuerzo que le supone a una persona responder una pregunta. En cambio, propone mirar el paralelismo completo: un humano necesita “unos 20 años de vida y toda la comida” de ese periodo antes de poder responder con solvencia. Incluso amplía el marco y lo lleva a la evolución y al aprendizaje acumulado de “cien mil millones de personas” a lo largo de la historia.

La tesis de Altman es clara: una vez entrenado, el modelo puede responder con un coste energético relativamente bajo, y ahí —dice— la IA “probablemente” ya se ha puesto al día en eficiencia frente a los humanos. En este punto, un estudio previo de Epoch AI sirve de apoyo a la idea de que el consumo durante la inferencia es reducido, especialmente comparado con el gasto del entrenamiento.

El problema, sin embargo, es la falta de cifras verificables. Altman insiste en que la inferencia consume poco, pero no aporta datos concretos que permitan contrastarlo. Y eso deja el debate en el aire, porque a estas alturas sigue sin haber claridad sobre cuánto consumen realmente los modelos, tanto al entrenarse como al funcionar a escala.

También abordó el tema del agua, otra de las críticas recurrentes a los grandes centros de datos. Altman afirmó que el uso de refrigeración evaporativa “solía” ser un problema, pero que ahora “no hacemos eso”. Fue más allá al calificar de “totalmente falsa” y “totalmente loca” la idea de que “ChatGPT usa 17 galones por cada consulta, o los que sean”. De nuevo, el mensaje es contundente, pero la evidencia pública sigue siendo limitada.

En el fondo, esta discusión revela una tensión creciente: los centros de datos requieren cantidades ingentes de energía, los chips y la refrigeración mejoran, los modelos ganan eficiencia… y aun así seguimos, en buena medida, a ciegas. En EEUU, donde se concentra un gran número de centros de datos, no existe una legislación que obligue a publicar estas cifras, lo que alimenta tanto exageraciones como desmentidos difíciles de comprobar.

La comparación de Altman puede resultar polémica, pero pone el foco donde más duele: no basta con debatir si la IA consume “mucho” o “poco”. Sin transparencia, el público solo puede elegir entre estimaciones fallidas y declaraciones sin números. Y en un tema tan sensible como energía y agua, esa falta de datos es, hoy, el verdadero cuello de botella.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.