OpenAI se prepara para cerrar 2025 con un hito sin precedentes: más de un millón de GPUs en línea dedicadas exclusivamente al entrenamiento y despliegue de sus modelos de inteligencia artificial. Así lo ha afirmado su CEO, Sam Altman, en una reciente publicación en X, donde también deslizó un objetivo todavía más ambicioso: multiplicar esa cifra por cien. Aunque lo dijo con un “lol”, pocos dudan de que el mensaje sea más una declaración de intenciones que una broma.
De la escasez al exceso: una historia reciente
A principios de año, OpenAI admitió haber ralentizado el lanzamiento de GPT-4.5 por falta de capacidad computacional. Las GPUs —en especial las NVIDIA H100, piedra angular de la IA generativa— estaban agotadas. Desde entonces, Altman ha impulsado una agresiva expansión de infraestructuras, incluyendo centros de datos dedicados y acuerdos con gigantes como Microsoft Azure, Oracle y, según rumores, incluso Google, para diversificar su acceso a aceleradores como las TPUs.
Para ponerlo en contexto, la empresa xAI de Elon Musk, responsable del modelo Grok 4, opera con unas 200.000 GPUs. OpenAI estaría en camino de quintuplicar esa cifra, convirtiéndose en el mayor consumidor de computación para IA del planeta.
El monstruo energético de Texas
Uno de los ejemplos más visibles de esta expansión es el megacentro de datos en Texas, considerado ya el más grande del mundo. Con un consumo energético actual de 300 megavatios —equivalente al de una ciudad mediana—, se prevé que alcance los 1.000 megavatios (1 GW) en 2026. Este crecimiento ha encendido las alarmas de operadores de red estatales, que advierten sobre los riesgos para la estabilidad del sistema eléctrico local.
El problema no es solo la energía; es la velocidad de implementación. Infraestructuras a esa escala suelen requerir años de planificación y ejecución, mientras que OpenAI opera con plazos que apenas alcanzan los meses.
¿100 millones de GPUs? Un reto físico y económico
El objetivo de alcanzar los 100 millones de GPUs es, hoy por hoy, una quimera. Solo el coste estimado —unos 3 billones de dólares— se aproxima al PIB anual del Reino Unido, sin contar la energía, el espacio ni la refrigeración necesarios para operarlas. Además, NVIDIA no tiene capacidad de producción para ello en el corto plazo.
Pero Altman no piensa únicamente en GPUs actuales. La empresa lleva meses explorando chips personalizados, nuevas arquitecturas e incluso aceleradores especializados para construir la próxima generación de infraestructura para una IA general (AGI). En este contexto, el millón de GPUs que se alcanzará en 2025 no es un punto de llegada, sino el nuevo punto de partida.
Más que músculo: una estrategia de ventaja competitiva
Este despliegue masivo no responde únicamente al deseo de acelerar modelos como GPT‑5. Se trata de una carrera por la ventaja estructural. En un sector donde la computación es el cuello de botella, tener la infraestructura ya montada es la mejor forma de asegurar una posición dominante. La historia reciente de la IA demuestra que quien controla el hardware, controla la evolución de los modelos.
Y mientras otras tecnológicas como Meta, Amazon o Google avanzan con sus propios chips y centros de datos, OpenAI apuesta por un ecosistema híbrido: alianzas estratégicas, diseño propio y control de la cadena de suministro.
Una nueva era de infraestructura planetaria para la IA
El impulso de Altman recuerda más al de una agencia espacial o un proyecto de energía nuclear que al de una startup. Su visión de una IA general requiere recursos computacionales a escala planetaria, y cada anuncio parece destinado a preparar tanto al mercado como a los reguladores para ese futuro.
¿Es viable alcanzar los 100 millones de GPUs? Hoy no. Pero como señala el propio Altman, la ambición es el verdadero mensaje. Y si algo ha demostrado hasta ahora, es que sus metas improbables acaban marcando el camino de toda la industria.
Conclusión:
La cifra de 1 millón de GPUs no es solo un récord técnico. Es el aviso de que el futuro de la inteligencia artificial no se medirá en algoritmos, sino en megavatios, obleas de silicio y kilómetros de fibra óptica. Y OpenAI quiere liderar esa infraestructura global.
vía: tomshardware