IBM pone números al “boom” de centros de datos para IA: el plan de 8 billones de dólares no sale a cuenta

El debate sobre si la fiebre actual por la inteligencia artificial es sostenible no solo se libra entre analistas e inversores. También ha llegado a las cúpulas de las grandes tecnológicas. El último en alzar la voz ha sido Arvind Krishna, consejero delegado de IBM, que ha cuestionado abiertamente la viabilidad económica del gigantesco despliegue de centros de datos para IA que se está poniendo en marcha en todo el mundo.

En una entrevista en el pódcast Decoder de The Verge, Krishna aseguró que, si se cumplen las ambiciones actuales de la industria para construir infraestructura orientada a una futura “IA general” (AGI), el sector estaría caminando hacia un escenario de 8 billones de dólares de inversión acumulada en centros de datos de aquí a unos años.

Un gigavatio de IA: 80.000 millones de dólares

El cálculo del directivo parte de una cifra llamativa: según sus estimaciones, llenar un centro de datos de 1 gigavatio dedicado a IA con hardware de cómputo (aceleradores, redes, almacenamiento, etc.) cuesta del orden de 80.000 millones de dólares.

Hasta hace poco, hablar de un gigavatio en un único campus de datos sonaba a ciencia ficción. Pero los proyectos anunciados por grandes compañías de IA y cloud empiezan a moverse precisamente en esa liga: instalaciones diseñadas para consumir decenas de gigavatios de potencia en total, y algunos planes que ya mencionan cifras de más de 100 gigavatios dedicados a cargas de trabajo “AGI-class”.

Si se multiplican esos 100 gigavatios potenciales por los 80.000 millones por gigavatio, se llega a esos 8 billones de dólares en infraestructura que preocupan al CEO de IBM.

El factor olvidado: la depreciación

Krishna no solo habla de potencia eléctrica o coste inicial, sino de algo más prosaico: la depreciación del hardware. En los grandes centros de datos, los aceleradores de IA (GPUs, ASICs, TPUs…) suelen amortizarse en unos cinco años. A ese ritmo de innovación, prolongar su vida útil más allá es complicado: las nuevas generaciones suelen ofrecer mejoras tan grandes en rendimiento por vatio que seguir con la plataforma anterior deja de tener sentido.

“Hay que usarlo todo en cinco años, porque entonces tienes que tirarlo y volver a llenarlo”, resumió. Si se asume una inversión de 8 billones, solo el coste de capital exigiría unos 800.000 millones de dólares de beneficio anual para que las cuentas cuadren, según sus números.

La pregunta implícita es evidente: ¿hay suficiente negocio real ligado a la IA como para generar esa cifra de beneficios, de forma recurrente, solo para pagar la factura de la infraestructura?

Un baño de realidad en plena carrera por la AGI

Las declaraciones de Krishna llegan en un momento en el que los anuncios de megacentros de datos se han convertido casi en rutina. Grandes actores de la nube, fabricantes de chips y nuevas empresas de IA compiten por reservar potencia eléctrica, construir “AI factories” y asegurarse acceso prioritario a las próximas generaciones de hardware.

La narrativa dominante hasta ahora ha sido que esta inversión es necesaria para alcanzar sistemas de IA cada vez más capaces, con la AGI como horizonte difuso. Krishna, sin embargo, introduce un matiz: no cuestiona solo la tecnología, sino el modelo económico que la sostiene.

En la misma conversación llegó a sugerir que la probabilidad de que la aproximación actual lleve realmente a una AGI “plena” es muy baja, en el rango de 0 % a 1 %, lo que refuerza su argumento de prudencia frente a inversiones masivas basadas en expectativas quizá demasiado optimistas.

Energía, redes y límites físicos

Más allá del balance contable, el directivo de IBM se suma a otras voces que alertan sobre los límites físicos y energéticos de este modelo. Centros de datos de gigavatios compiten por acceso a redes eléctricas ya tensionadas en muchos países, exigen nuevas subestaciones, líneas de alta tensión y soluciones avanzadas de refrigeración.

Gobiernos y reguladores empiezan a preguntarse cómo encaja esta expansión con los objetivos climáticos y de transición energética, mientras se multiplican los proyectos de generación renovable y almacenamiento asociados a campus de IA para mitigar el impacto en la red.

IBM también apuesta por la IA, pero con otra narrativa

Las advertencias de Krishna no significan que IBM se mantenga al margen de la carrera. La compañía impulsa su propia plataforma watsonx y colabora con otros actores en soluciones de IA generativa para empresas. Su mensaje va más en la línea de exigir disciplina de inversión y retorno claro, especialmente en el segmento corporativo, donde la adopción suele ser más gradual y ligada a casos de uso concretos.

Frente al “crecer a cualquier precio” que algunos analistas atribuyen a la actual ola de construcción de centros de datos, el CEO de IBM parece reclamar una visión más tradicional: capex alineado con flujos de caja previsibles, y no tanto con la promesa de una futura AGI aún muy especulativa.

¿Burbuja o fase necesaria?

Las palabras de Krishna reabren un debate incómodo:
¿Está la industria construyendo más infraestructura de IA de la que podrá rentabilizar?

Algunos expertos recuerdan que, históricamente, otras grandes oleadas de inversión —como el despliegue de fibra óptica o de redes móviles— también parecían excesivas en su momento, pero terminaron siendo la base de nuevas economías digitales. La diferencia, subrayan, es que la velocidad de obsolescencia del hardware de IA y su intensidad energética son mucho mayores que las de aquellas infraestructuras.

En cualquier caso, que un actor como IBM ponga cifras concretas sobre la mesa —8 billones de dólares en juego y 800.000 millones anuales necesarios para sostenerlos— añade presión a empresas, inversores y reguladores para que se pregunten no solo si se puede construir esta nueva generación de centros de datos, sino si tiene sentido económico hacerlo en los términos actuales.

vía: tomshardware

Scroll al inicio