Durante años, las estimaciones sobre el gasto energético y medioambiental de la inteligencia artificial generativa parecían sacadas de una película apocalíptica. Algunos cálculos sostenían que cada consulta a una IA podía equivaler a encender varias bombillas durante minutos o incluso cargar varios coches eléctricos por segundo. Sin embargo, Google acaba de publicar su primer informe técnico oficial sobre el consumo de su modelo Gemini, y los números desmontan buena parte de esos pronósticos: la realidad es mucho más moderada, aunque no exenta de debate.
Los números oficiales: electricidad, agua y CO₂ por cada consulta
Según los datos de mayo de 2025, una consulta de texto promedio a Gemini consume:
- 0,24 Wh de electricidad → equivalente a ver nueve segundos de televisión en un aparato de 100 W.
- 0,26 ml de agua → unas cinco gotas, necesarias para la refrigeración de los servidores.
- 0,03 g de CO₂ equivalente como huella de carbono.
Estas cifras corresponden únicamente al proceso de inferencia, es decir, cuando el modelo genera una respuesta a la petición de un usuario.
Las estimaciones previas, desmentidas
Hasta hace poco, consultoras y analistas calculaban que una sola consulta de IA en Google podía consumir 3 Wh, unas diez veces más que una búsqueda tradicional. Esto llevó a titulares alarmistas: “la IA de Google consumirá tanta energía como cargar siete coches eléctricos por segundo”.
El informe oficial de Google corrige esas previsiones con una rebaja drástica: la estimación estaba inflada por un factor de 12,5.
La clave: software más eficiente y nuevas arquitecturas
La diferencia no es casualidad. Google explica que en los últimos 12 meses ha conseguido:
- Reducir 33 veces el consumo de energía por prompt.
- Disminuir 44 veces la huella de carbono por respuesta generada.
Estos avances se deben tanto a mejoras en hardware propio —como las TPUs y GPUs diseñadas específicamente para IA— como a técnicas de software de nueva generación, entre ellas:
- Decodificación especulativa, que acelera la generación de texto.
- Mixture-of-Experts (MoE), un paradigma donde no todos los parámetros del modelo se activan a la vez, reduciendo el gasto de cómputo.
Inferencia sí, entrenamiento no
Conviene subrayar que el informe de Google no incluye el coste energético del entrenamiento de los modelos, una de las fases más intensivas en recursos.
El entrenamiento de un gran modelo de lenguaje (LLM) puede requerir miles de GPUs funcionando durante semanas y consumir tanta electricidad como una pequeña ciudad. Google justifica que el foco de este informe está en la inferencia porque es ahí donde se producen las interacciones masivas con millones de usuarios diarios.
Comparativa con OpenAI: ChatGPT también consume menos de lo esperado
Google no es la única que ha abierto la caja negra. En junio de 2025, Sam Altman, CEO de OpenAI, afirmó que cada consulta a ChatGPT consume unos 0,34 Wh y 0,3 ml de agua.
La cifra energética es ligeramente superior a la de Gemini, aunque las metodologías no son comparables al detalle: OpenAI no aclaró si incluye factores como el consumo en refrigeración o en servidores en espera (idle).
Ambas compañías coincidieron en un mismo recurso pedagógico: la televisión. Una diapositiva de OpenAI comparaba directamente:
“Una hora de Netflix consume 100 veces más electricidad que ChatGPT”.
El objetivo es evidente: tranquilizar a la opinión pública y a los reguladores sobre el impacto real de la IA en las emisiones de carbono.
El gran ausente: el entrenamiento de modelos
Aunque Google ha dado un paso de transparencia, el entrenamiento sigue siendo la gran incógnita. Investigaciones independientes calculan que entrenar un modelo como GPT-4 podría haber consumido miles de megavatios-hora y millones de litros de agua.
Los críticos señalan que, sin incluir esas cifras, los informes de eficiencia muestran solo “la mitad del cuadro”. No obstante, la compañía asegura que la mayor parte del impacto directo en usuarios y en infraestructura eléctrica proviene de la inferencia, que es donde más avances se están logrando.
Impacto en el sector energético y en la sostenibilidad
Google afirma que sus centros de datos son cada vez más eficientes. En 2024, redujo sus emisiones un 12%, incluso cuando el consumo eléctrico aumentó un 27%, impulsado por la expansión de sus servicios.
La compañía asegura que el consumo por prompt ya es “manejable” y que los esfuerzos de optimización continuarán. Sin embargo, expertos en sostenibilidad advierten que la multiplicación de usuarios y consultas podría llevar a un impacto global mayor, aunque cada interacción individual parezca inofensiva.
¿Menos que Netflix, pero más que antes?
La comparación con Netflix o con el consumo de un televisor busca relativizar el problema. No obstante, conviene recordar que:
- Una búsqueda tradicional en Google consumía hasta ahora entre 0,2 y 0,3 Wh.
- Una consulta a la IA, aunque optimizada, todavía consume más que esa media.
En otras palabras: el buscador se ha vuelto más caro en términos energéticos. Y aunque las compañías presuman de mejoras, la expansión masiva de la IA en buscadores, asistentes y aplicaciones puede multiplicar su impacto global.
Conclusión: la transparencia es solo el primer paso
El informe de Google marca un hito en el debate sobre el impacto ambiental de la inteligencia artificial. La buena noticia: las consultas individuales consumen mucho menos de lo que se temía. La mala: el verdadero coste del entrenamiento y la suma de millones de consultas sigue siendo un reto mayúsculo.
Lo que queda claro es que la batalla de la IA no solo se libra en el terreno tecnológico, sino también en el energético y medioambiental. En la era de la IA, cada prompt cuenta, no solo en los resultados que ofrece, sino también en los recursos que consume.
Preguntas frecuentes (FAQ)
1. ¿Cuánta energía consume una consulta a Gemini?
Según Google, 0,24 Wh, equivalente a ver nueve segundos de televisión.
2. ¿Cuánta agua se gasta por consulta?
Unos 0,26 ml, es decir, cinco gotas empleadas en refrigeración.
3. ¿Se incluye el entrenamiento de los modelos en este cálculo?
No. Las cifras se refieren únicamente a la inferencia, no al entrenamiento, que es mucho más costoso.
4. ¿Cómo se compara con ChatGPT?
OpenAI estima 0,34 Wh y 0,3 ml de agua por consulta, ligeramente más que Gemini, aunque con diferencias metodológicas.
Referencias: blog.google y xataka