Skip to content

Nuevo GPT-5.2 dispara el consumo eléctrico casi como Puerto Rico

| | 4 min read
GPT-5.2 Dispara el Consumo Eléctrico
El nuevo modelo GPT-5.2 de OpenAI aumenta la preocupación por el consumo energético de la IA. ChatGPT ya gasta 17 TWh/año, casi como Puerto Rico. Imagen: Naciones Unidas

OpenAI lanza su modelo más avanzado, pero su demanda de energía de 17 TWh anuales equivale al consumo total de un país pequeño.

NUEVA YORK.-OpenAI acaba de anunciar el lanzamiento de GPT-5.2, su modelo de inteligencia artificial más avanzado hasta la fecha. Si bien la empresa promete mejoras significativas en la inteligencia general, la codificación compleja y la comprensión del contexto a largo plazo, la letra pequeña es cada vez más difícil de ignorar: para funcionar a pleno rendimiento, estos sistemas demandan un suministro eléctrico que roza el consumo energético de países enteros. El informe es comentado por Alan Goldberg, analista de datos y autor en BestBrokers .

El coste de este salto tecnológico no es solo financiero; es, sobre todo, ambiental. A medida que la IA escala a una velocidad vertiginosa, su consumo energético lo hace con la misma rapidez, poniendo presión sobre las redes eléctricas, disparando las emisiones de carbono y planteando una incómoda pregunta: ¿cuál es el verdadero coste ecológico de la inteligencia bajo demanda?

OpenAI se desvincula de caso de suicidio de menor; ve uso indebido de ChatGPT

Un análisis exhaustivo pone en perspectiva la magnitud del problema utilizando a su predecesor, ChatGPT, como un ejemplo escalofriante. Se estima que cada consulta individual a ChatGPT consume 18.9 vatios-hora (Wh), una cifra más de 50 veces superior a la energía necesaria para una búsqueda estándar en Google (0.3 Wh).

Se estima que cada consulta individual a ChatGPT consume 18.9 vatios-hora (Wh), una cifra más de 50 veces superior a la energía necesaria para una búsqueda estándar en Google (0.3 Wh).

El gasto anual de ChatGPT: el caso Puerto Rico

Para ilustrar la magnitud real de este consumo masivo, el equipo de BestBrokers calculó la demanda energética anual de ChatGPT basándose en el uso promedio de sus 810 millones de usuarios activos semanales. Las matemáticas resultan desoladoras, según explica Alan Goldberg, analista de datos y autor en BestBrokers:

"El consumo energético anual de ChatGPT asciende a una impresionante cifra de 17.23 teravatios-hora (TWh). Para que el público lo entienda, esto es casi equivalente al consumo total de electricidad de un país relativamente pequeño como Puerto Rico o Eslovenia."

ChatGPT se refuerza para afrontar crisis de salud mental de usuarios

Para ponerlo en un contexto más cercano, la electricidad que ChatGPT necesita anualmente solo para responder preguntas sería suficiente para abastecer la totalidad de la ciudad de Nueva York durante 113 días, o casi cuatro meses. Traducido a costes duros, y utilizando la tarifa eléctrica comercial promedio de EE. UU., esto se traduce en unos 2,420 millones de dólares en gastos energéticos anuales.

Diariamente, el modelo procesa más de 2,500 millones de solicitudes, consumiendo más de 47.2 millones de kilovatios-hora. La energía que ChatGPT necesita anualmente podría cargar por completo unos 238 millones de vehículos eléctricos.

Falta de transparencia: el riesgo de la IA sin freno

El problema se agrava con los modelos de última generación. Las iteraciones como GPT-5.2 ofrecen mejoras notables en razonamiento, pero sus demandas energéticas son exponencialmente mayores. Las fases de entrenamiento de estos sistemas de vanguardia ahora requieren decenas de gigavatios-hora. Aunque existen mejoras en la eficiencia, estas son superadas con creces por el aumento del uso global y el tamaño creciente de los modelos.

OpenAI se plantea la compra estratégica de Google Chrome

Lo que resulta especialmente preocupante, subraya Goldberg, es la escasa transparencia en torno al verdadero impacto eléctrico de estos sistemas. Sin informes claros y estándares de optimización más rigurosos, el vertiginoso progreso de la IA corre el riesgo de generar presiones sobre la infraestructura y el entorno que la industria se resiste a reconocer por completo.

El próximo gran avance tecnológico que la industria necesita desesperadamente quizás no sea un algoritmo más inteligente, sino uno dramáticamente más eficiente.

Más detalles en: bestbrokers.com

Share:
Diómedes Tejada Gómez

Diómedes Tejada Gómez

Comunicador y mercadólogo, editor de DiarioDigitalRD en Nueva York. Contacto: diomedestejada@gmail.com

Artículos relacionados