Todos quieren usar la IA, y desde ya hace algún tiempo se sabe cuál es el costo de la energía por el uso de esta tecnología, de ahí que muchos están buscando energías renovables, y por supuesto hacer más eficiente el procesado de los LLM.
Bajo esta dinámica, la Universitat Oberta de Catalunya (UOC), planea un interesante análisis que pone el foco en cómo acciones tan simples como iniciar una conversación con ChatGPT tienen consecuencias medibles en términos de energía y agua.
La universidad presenta un argumento diferente y poco expuesto:
[…] Cada palabra enviada a una IA no solo es parte de una interacción tecnológica, sino también una unidad de consumo energético.
Esta reflexión es desarrollada de la mano de expertos en informática, sostenibilidad y transformación digital de la UOC, quienes explican en detalle el verdadero costo de operar, entrenar y mantener estos sistemas.
Antes de entrar en materia, veamos algunos antecedentes asociados al último informe de la Agencia Internacional de la Energía (EIA), de abril de 2025 y una publicación del National Geographic.
¿Qué advierten la Agencia Internacional de la Energía y National Geographic sobre el impacto ambiental de la IA?
Tanto el informe de la Agencia Internacional de la Energía (IEA), como el análisis publicado por National Geographic, coinciden en que el problema no radica en una sola interacción, sino en la magnitud del uso global. La combinación entre crecimiento acelerado, alta demanda de recursos y ausencia de límites definidos plantea una tensión directa entre desarrollo tecnológico y sostenibilidad.
Antecedentes que arroja el informe de la Agencia Internacional de la Energía (IEA)
El informe más reciente de la Agencia Internacional de la Energía (IEA), publicado en abril de 2025, advierte que el rápido despliegue de modelos de inteligencia artificial generativa está elevando de forma significativa la demanda energética de los centros de datos a nivel mundial. Esta presión sobre la infraestructura eléctrica plantea desafíos de sostenibilidad que aún no han sido regulados con claridad.
La Figura 1.16 del informe de la IEA compara el consumo eléctrico de tareas generativas de IA como texto, imágenes y video, con el de cargar dispositivos electrónicos cotidianos.

El resultado muestra que algunas tareas pueden llegar a consumir tanto como cargar un computador dos veces
- 🧠 Generación de texto (modelo pequeño): ~0,3 Wh
- 🧠 Generación de texto (modelo grande): ~5 Wh
- 🖼️ Generación de imágenes (SD-XL 1.0): ~1,8 Wh
- 🎞️ Generación de video corto (6 s, 8 fps – CogVideoX-5b): ~110 Wh
- 🔋 Cargar un celular: ~18 Wh
- 💻 Cargar un computador portátil: ~60 Wh
Por su parte, la Figura 1.18 del informe de la IEA muestra como técnicas de optimización operativa pueden reducir de forma significativa el consumo energético de tareas generativas de IA.

- 🧠 Modelos de lenguaje (LM tamaño medio):
- Sin batching (batch 1): ~5 Wh
- Con batching (batch 8): ~2,5 Wh
➜ Reducción de casi 50 % en el consumo por tarea.
- 🧠 Modelos tipo MoE (mixture of experts): De ~6,2 Wh a ~3,2 Wh entre batch 1 y batch 8.
- 🧠 Modelos de razonamiento grandes: De ~9 Wh a ~4,5 Wh, son los más intensivos en consumo sin optimización.
- 🖼️ Generación de imágenes: de ~2,5 a ~1,2 Wh, También se reduce a la mitad.
- 🎞️ Generación de video: de ~120 Wh con batch 1 a ~65 Wh con batch 8, ahorro de más de 50 Wh por tarea usando batching.
Los datos del informe de la Agencia Internacional de la Energía revelan el impacto real del crecimiento de la IA sobre la infraestructura energética global.
A continuación, se resumen las cifras más relevantes del estudio publicado en abril de 2025:
Datos clave del estudio de la EIA:
- ⚡ 250 TWh: consumo estimado en 2023 por centros de datos enfocados en IA.
- 📈 >900 TWh: proyección para 2030 en un escenario de alta adopción tecnológica.
- 🌍 Comparable al consumo anual de Japón.
- 🧠 1 tarea de generación de video corto puede gastar lo mismo que cargar un notebook dos veces (Figura 1.16).
- 🏭 En países desarrollados, los centros de IA ya consumen más electricidad que industrias como acero o cemento (Figura 1.14).
- ⚙️ Técnicas como batching y caching pueden reducir entre 20 % y 40 % el consumo energético por tarea, según el tipo de modelo (Figura 1.18).
- ⚠️ No existen límites regulatorios definidos sobre el crecimiento energético del sector IA.
Costo en agua y energía para generar textos con IA según Natgeo
Por su parte, un análisis de National Geographic complementa este diagnóstico, poniendo el foco en el impacto hídrico del uso de herramientas como ChatGPT (agua usada en los sistemas de enfriamiento de los servidores):
Generar un texto de solo 100 palabras consume en promedio 519 mililitros de agua, el equivalente a una botella.
Desde el punto de vista energético, el National Geographic señala que:
[…] cada consulta con ese mismo volumen textual puede suponer un gasto energético de 0,14 kilovatios-hora, suficiente para alimentar 14 bombillas LED durante una hora.
Bajo esta dinámica, el Natgeo ejemplifica que si solo el 10 % de la población activa utilizara ChatGPT semanalmente, el consumo eléctrico anual sería equivalente al gasto doméstico total de Washington D.C. durante 20 días.
“Detrás de cada interacción aparentemente trivial con un chatbot, se esconde un sistema complejo y voraz, cuya operación deja una marca significativa en el medio ambiente”.
¿Por qué la Universidad Oberta de Catalunya advierte sobre el impacto ambiental de la IA y su demanda de energía?
El motivo por el cual un simple mensaje a una IA tiene repercusiones ambientales se debe al funcionamiento intensivo de los centros de datos, tanto en la fase de entrenamiento como en el uso diario. Aunque una sola interacción pueda parecer inofensiva, su masificación escala rápidamente en términos de energía y recursos hídricos.
Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación, explica que el uso de la IA ya entrenada sigue siendo una actividad exigente desde el punto de vista técnico:
“Incluso en esta fase de explotación, cada petición activa millones de cálculos para generar una respuesta nueva desde cero”.
Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación
Por eso, Pita señala que el problema no se limita a la etapa de entrenamiento del modelo. También es necesario considerar el uso masivo y cotidiano que se hace de estas herramientas.
“Reducir el consumo energético de la IA no es sencillo, pero debemos reflexionar sobre cuándo vale realmente la pena usarla y cuándo no hace falta”.
Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación
Como alternativa, sugiere mantener la cortesía sin aumentar innecesariamente el volumen de texto procesado:
“Podemos ser educados si lo queremos, aprovechando el mismo mensaje o prompt con el que realizamos nuestra consulta”.
Antonio Pita, profesor de los Estudios de Informática, Multimedia y Telecomunicación
A esta preocupación técnica se suma el componente ambiental, especialmente en el uso del agua. Zora Kovacic, profesora de los Estudios de Economía y Empresa de la misma universidad, advierte que los recursos utilizados por la IA no son menores ni irrelevantes:
“El agua y la energía son los dos recursos más mencionados en lo que se refiere al impacto ambiental de la IA”.
Zora Kovacic, profesora de los Estudios de Economía y Empresa
Si bien la IA no consume agua de forma directa, sí depende de ella para refrigerar los servidores que ejecutan millones de cálculos cada segundo. En ese contexto, Kovacic aclara:
“El uso del agua es no consuntivo: el agua no se consume, como en la agricultura, sino que se utiliza para enfriar y después puede devolverse a las corrientes”.
Zora Kovacic, profesora de los Estudios de Economía y Empresa
El problema aparece cuando estos centros de datos se ubican en zonas donde el agua escasea y el enfriamiento intensivo compite con otros usos prioritarios:
“En países como España, donde existe escasez de agua, el consumo hídrico por parte del sector de la IA puede competir con otros usos, y convertirse en un problema de sostenibilidad si se prioriza por encima de otras necesidades”.
Zora Kovacic, profesora de los Estudios de Economía y Empresa.
Una mira desde el grupo Artificial Intelligence and Data for Society (AID4So) de la UOC
El impacto, sin embargo, no es solo técnico ni ambiental: también es estructural. Andreas Kaltenbrunner, investigador del grupo Artificial Intelligence and Data for Society (AID4So), relata que el uso constante de estas plataformas puede llegar a equiparar —e incluso superar— el consumo energético del entrenamiento inicial de los modelos:
“El peso de la actividad diaria es muy relevante: aunque puede parecer que el uso diario es menos intensivo por persona, si se multiplica por millones de usuarios cada día, el consumo puede llegar a ser igual o superior al del entrenamiento”.
Andreas Kaltenbrunner, investigador del grupo Artificial Intelligence and Data for Society (AID4So)
A esto se suma la preocupación por la ubicación de los centros de datos, que muchas veces se instalan en zonas vulnerables por razones de costo y regulación:
“Muchos centros de datos están ubicados en zonas vulnerables por cuestiones logísticas y económicas (energía barata, espacio o legislación más permisiva)”.
Andreas Kaltenbrunner, investigador del grupo Artificial Intelligence and Data for Society (AID4So)
Por lo mismo, el experto plantea que la solución no puede quedar solo en manos del sector privado. Debe haber políticas públicas que regulen este crecimiento:
“Las políticas públicas deberían exigir transparencia sobre la huella energética e hídrica, incentivar buenas prácticas, apostar por energía renovable y evitar la ubicación de centros de datos en zonas vulnerables”.
Andreas Kaltenbrunner, investigador del grupo Artificial Intelligence and Data for Society (AID4So)
Desde la mirada académica, el mensaje es claro: el avance tecnológico necesita ir acompañado de criterios de sostenibilidad. De lo contrario, el costo ambiental podría superar los beneficios que promete la inteligencia artificial.