S O Y R E P O R T E R O

Sam Altman defiende la eficiencia energética de ChatGPT y cuestiona comparaciones sobre consumo

Altman sostiene que el entrenamiento de IA es costoso, pero la inferencia sería eficiente; faltan datos oficiales verificables.

Publicado por: admin (soyreportero)

2026/02/23 | 08:12

Calificación

0 / 5 (0 votos)

Reportes

0

Sam Altman defiende la eficiencia energética de ChatGPT y cuestiona comparaciones sobre consumo

Fuente: https://images.pexels.com/photos/11924298/pexels-photo-11924298.jpeg?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

La inteligencia artificial se ha convertido en un símbolo de progreso… y también en un blanco constante por su huella energética. En ese cruce de entusiasmo y preocupación, Sam Altman, CEO de OpenAI, dejó una de las frases más comentadas en un evento organizado por The Indian Express: comparar el consumo de energía de entrenar un modelo con el de “hacer una consulta” es, según él, una comparación injusta. Su argumento, tan provocador como fácil de entender, fue que “entrenar” a un humano también cuesta muchísimo: “unos 20 años de vida y toda la comida que comes durante ese tiempo”, además del aprendizaje acumulado por generaciones.

Altman no niega el punto de partida: entrenar modelos de IA consume mucha energía. Donde pide cambiar el foco es en la comparación. Para él, lo razonable sería medir cuánta energía se necesita una vez que el modelo ya está entrenado para responder una pregunta —la llamada inferencia— frente a lo que le cuesta a una persona responder lo mismo. Y ahí, sostiene, la IA “probablemente ya se ha puesto al día” en eficiencia energética.

Esta distinción entre entrenamiento e inferencia es clave para entender el debate. Entrenar implica construir capacidades: requiere tiempo, hardware especializado y una infraestructura enorme. La inferencia, en cambio, es el momento en que usamos el sistema: cuando le pedimos a ChatGPT que redacte un texto, resuma un documento o responda una duda. Un estudio de Epoch AI, citado en el contexto de estas declaraciones, apuntaba precisamente a que el consumo durante la inferencia es reducido. Además, el informe destacaba una tendencia clara: modelos, chips y sistemas de refrigeración han ido mejorando su eficiencia.

Altman también abordó otro tema que suele encender la conversación pública: el agua. Reconoció que la refrigeración evaporativa fue un problema “cuando solíamos usarla”, pero afirmó que ahora “no hacemos eso”. En la misma línea, calificó de “totalmente loca” y desconectada de la realidad la idea de que “ChatGPT usa 17 galones por cada consulta, o los que sean”.

El problema de fondo, sin embargo, sigue intacto: faltan cifras oficiales y verificables. A día de hoy no hay datos realmente claros sobre el consumo energético y de agua, ni en entrenamiento ni en inferencia. Se han publicado estimaciones exageradas que luego resultaron erróneas, pero el vacío de información también alimenta la desconfianza. En Estados Unidos, donde se concentra un gran número de centros de datos, no existe una legislación que obligue a las empresas a ser transparentes con estas métricas.

En resumen, Altman pone sobre la mesa una idea potente: el coste real de la IA no se entiende si se mezclan fases distintas. Pero su defensa tropieza con un límite evidente: sin números concretos, el debate seguirá basándose más en percepciones —y titulares— que en evidencia.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.