OpenAI y NVIDIA han firmado una carta de intenciones para una asociación estratégica que prevé el despliegue de al menos 10 gigavatios (GW) de sistemas NVIDIA dedicados a la próxima generación de infraestructura de IA de OpenAI —capacidades que, en la práctica, suponen millones de GPU interconectadas. Según el anuncio, NVIDIA invertirá hasta 100.000 millones de dólares en OpenAI de forma progresiva, a medida que se ponga en marcha cada gigavatio. La primera fase está prevista para la segunda mitad de 2026, sobre la plataforma NVIDIA Vera Rubin.
Jensen Huang, fundador y CEO de NVIDIA, enmarcó el acuerdo como el “siguiente gran salto” tras una década de colaboración (del primer DGX al boom de ChatGPT). Sam Altman, CEO de OpenAI, recalcó que “todo empieza por el cómputo” y que la infraestructura construida con NVIDIA será la base para nuevos avances y para llevar la IA a escala a personas y empresas.
Qué significa “10 GW” en centros de datos de IA
- Orden de magnitud: 10 GW de sistemas de IA implican hiperescala en entrenamiento e inferencia (modelos multimodales grandes, contextos extensos, agentes con herramientas), con redes de muy alto rendimiento (NVLink/NVSwitch, Ethernet/IB óptico) y almacenamiento de baja latencia.
- Infraestructura: no es solo hardware. Requiere suelo, potencia y refrigeración (líquida/por inmersión), PPAs y coordinación con operadores de red para integrar estos consumos en el sistema eléctrico.
- Plataforma Vera Rubin: próxima generación de NVIDIA orientada a clústeres NVL y sucesores, con co-optimización HW/SW (CUDA, TensorRT-LLM, NeMo, planificadores, compilación especializada) para mejorar rendimiento por vatio y coste por token.
Calendario y alcance
- Primer hito: 1 GW en H2 2026 (Vera Rubin).
- Despliegue: fases sucesivas hasta alcanzar ≥10 GW, alineando capex con la activación de cada bloque de potencia y con la demanda de entrenamiento/inferencia de OpenAI.
- Ecosistema: el acuerdo complementa colaboraciones existentes con Microsoft, Oracle, SoftBank y socios de Stargate, centradas en la construcción de la infraestructura de IA más avanzada.
Implicaciones: energía, software y talento
- Energía: 10 GW equivalen a varias ciudades de tamaño medio. Harán falta múltiples emplazamientos, energía firme y renovable, y soluciones de eficiencia térmica.
- Software: el stack (paralelismo, schedulers, compilers, I/O) debe perseguir al hardware para reducir coste/latencia y aprovechar cada nueva generación.
- Talento y operaciones: operar “fábricas de IA” exige perfiles de HPC, redes, eléctrica, edificación crítica y MLOps en una escala poco común incluso en hyperscalers.
Contexto: la trayectoria de financiación de OpenAI
La asociación con NVIDIA se suma a una historia de inversión que ha permitido a OpenAI financiar el salto de investigación a plataforma de consumo y empresa. A continuación, algunas operaciones relevantes (valores y fechas públicamente reportados; varias cifras se comunicaron como multiyear o mediante ofertas secundarias, no siempre como inyecciones primarias de capital):
Fecha | Inversor / Operación | Importe (USD) | Notas |
---|---|---|---|
Dic 2015 | Fundadores y donantes iniciales (no lucrativa) | ~1.000 M (compromiso) | Compromiso filantrópico inicial a la entidad sin ánimo de lucro. |
Jul 2019 | Microsoft | 1.000 M | Anuncio oficial de inversión y acuerdo estratégico Azure. |
Ene 2023 | Microsoft (ampliación multianual) | hasta ~10.000 M (reportado) | Cifra ampliamente reportada por prensa; términos exactos no totalmente públicos. |
Abr 2023 | Consorcio VC (Sequoia, a16z, Thrive, K2, etc.) | ~300 M (reportado) | Operación reportada como ronda adicional / compra de acciones. |
2024 (reportado) | Tender liderado por Thrive Capital | miles de millones (secundario) | Compra de acciones a empleados; valoración alta, importe varía por fuente. |
Sep 2025 | NVIDIA (LOI, inversión progresiva ligada a 10 GW) | hasta 100.000 M | Carta de intenciones: inversión escalonada conforme se despliega cada gigavatio. |
Notas de lectura:
• Los importes “reportados” reflejan coberturas de prensa; no todas las cifras fueron confirmadas públicamente por las partes.
• Los tenders (ofertas secundarias) suelen no aportar capital nuevo a la empresa, pero sí permiten liquidez a empleados/inversores y fijan valoraciones de referencia.
• La entrada de Microsoft en 2019/2023 se combinó con créditos de Azure, acuerdos de capacidad y co-desarrollo.
Por qué importa para el sector de la IA
- Oferta de cómputo: la alianza fija un mapa de capacidad a varios años vista, clave para entrenar modelos más largos, multimodales y con razonamiento.
- Eficiencia: alinear roadmaps HW/SW y desplegar Vera Rubin desde el diseño puede reducir coste por token de entrenamiento e inferencia, y mejorar latencias.
- Competencia: presiona a otros actores (modelos, nubes, fabricantes) a asegurar cómputo y energía, y a acelerar su transición tecnológica (memorias HBM nuevas, óptica 800G/1.6T, refrigeración avanzada).
Qué observar en los próximos 12–24 meses
- Ubicaciones y acuerdos energéticos (PPA, almacenamiento, grid).
- Hitos de Vera Rubin (benchmarks, disponibilidad, topologías NVL).
- Actualizaciones de stack (TensorRT-LLM, NeMo, compilación, schedulers).
- Cadena HBM/óptica (capacidad adicional, validación de nuevas memorias y transceptores).
Conclusión
Si se materializa en los plazos previstos, el primer gigavatio en 2026 marcará el paso hacia fábricas de IA capaces de sostener entrenamientos masivos y servicios globales de baja latencia. La cifra —≥10 GW y hasta 100.000 M$— no es solo un titular financiero: es una apuesta industrial por la capacidad, la eficiencia y la co-optimización que definirán la próxima década de modelos y agentes.
Preguntas frecuentes
¿Cuándo entra en servicio la primera capacidad?
El plan apunta a H2 2026 para el primer GW sobre NVIDIA Vera Rubin, con fases posteriores hasta alcanzar ≥10 GW.
¿La inversión de 100.000 M$ es inmediata?
No. NVIDIA indica que será progresiva, vinculada a la puesta en marcha de cada gigavatio.
¿Sustituye a Microsoft u otros socios?
No. Según las compañías, la alianza complementa colaboraciones con Microsoft, Oracle, SoftBank y los socios de Stargate.
¿Qué gana OpenAI a corto plazo?
Visibilidad de capacidad de cómputo a varios años, lo que permite planificar entrenamientos, ampliar inferencia y acelerar la hoja de ruta de nuevos modelos y agentes.