La demanda eléctrica de los centros de datos está a punto de superar cualquier previsión. Con el auge imparable de la inteligencia artificial generativa, modelos de lenguaje de gran escala y entrenamiento distribuido, la construcción de “fábricas de IA” —como ya las llama NVIDIA— se ha disparado. Pero esta nueva infraestructura digital necesita algo más que chips y algoritmos: necesita energía. Mucha.
Sin embargo, el verdadero reto no es solo el volumen de consumo, sino cuándo y cómo se consume esa energía.
En ciudades como Phoenix (Arizona), donde las temperaturas extremas ya tensionan la red eléctrica durante el verano, los nuevos centros de datos enfrentan años de espera para conectarse al sistema. ¿La razón? No se trata de falta de megavatios instalados, sino de limitaciones estructurales del grid para gestionar la carga de forma flexible.
Pero una nueva generación de soluciones —como la propuesta por la startup Emerald AI en colaboración con NVIDIA, Oracle Cloud y Salt River Project— apunta a redefinir la relación entre las fábricas de IA y el sistema eléctrico.
Centros de datos como amortiguadores del sistema
Tradicionalmente, un centro de datos se consideraba una carga eléctrica estática e inflexible. Si necesitaba 500 megavatios, el operador asumía que esa cifra debía estar garantizada en todo momento.
Emerald AI rompe este paradigma con su plataforma “Emerald Conductor”, capaz de orquestar cargas de trabajo de IA de forma dinámica. ¿El resultado? En pruebas reales, un clúster de 256 GPUs redujo su consumo en un 25% durante tres horas sin afectar el rendimiento de tareas críticas.
Esto se consigue ajustando cargas según su prioridad: tareas como el entrenamiento o fine-tuning de modelos pueden pausarse temporalmente, mientras que inferencias urgentes pueden redirigirse a otros nodos menos saturados.
Flexibilidad energética: una nueva ventaja competitiva
Más allá del ahorro energético, esta flexibilidad abre nuevas oportunidades:
- Evitar apagones rotativos en ciudades durante picos de demanda.
- Reducir costes eléctricos al evitar tarifas máximas en horas punta.
- Acelerar la conexión de nuevos centros al sistema sin esperar ampliaciones costosas.
- Integrar energías renovables intermitentes gracias a cargas ajustables.
La analogía de Ayse Coskun, investigadora de Boston University y directora científica de Emerald, lo resume bien: “Las fábricas de IA pueden ser los nuevos amortiguadores del grid. No solo consumen, también ayudan a estabilizar”.
Un futuro energético y digital interdependiente
La Agencia Internacional de la Energía estima que el consumo eléctrico de los centros de datos podría duplicarse antes de 2030. Solo en Estados Unidos, leyes como la aprobada recientemente en Texas ya obligan a desconectar centros de datos en caso de emergencia energética, a menos que puedan autorregular su consumo.
Este enfoque —de «centros de datos que escuchan al grid»— se perfila como la única vía sostenible para expandir la IA sin colapsar el sistema eléctrico.
Además, estudios como el de la Universidad de Duke estiman que una flexibilidad del 25% durante apenas 200 horas al año podría desbloquear hasta 100 GW adicionales de capacidad disponible, lo que equivaldría a más de 2 billones de dólares en nueva infraestructura posible sin construir una sola línea adicional.
Conclusión: eficiencia, no solo potencia
El mensaje es claro: no basta con construir más centros de datos. Hay que construirlos mejor, más conscientes del contexto energético.
Las “fábricas de IA” no deben ser vistas como amenazas a la red, sino como aliadas inteligentes capaces de adaptar su consumo en tiempo real, integrarse con energías limpias y ayudar a mantener la estabilidad del sistema. Y esto no es un ideal lejano, sino una realidad ya demostrada por startups como Emerald AI, con el respaldo de gigantes como NVIDIA y Oracle.
El futuro de la inteligencia artificial no será solo más potente. También será más eficiente, resiliente y respetuoso con los recursos del planeta.
vía: blogs.nvidia.com