OpenAI y Broadcom anunciaron una colaboración multianual para co-desarrollar y desplegar 10 gigavatios de aceleradores de IA y sistemas de red de próxima generación. Según el comunicado conjunto (San Francisco y Palo Alto, 13 de octubre de 2025), OpenAI diseñará los aceleradores y los racks completos, y Broadcom será el socio para desarrollo, fabricación e integración, aportando un stack abierto de conectividad basado en Ethernet, PCIe y óptica. Las primeras instalaciones están previstas para la segunda mitad de 2026, con finalización del programa a finales de 2029.
La iniciativa se articula sobre un term sheet ya firmado para el suministro de racks que incorporarán los aceleradores diseñados por OpenAI y las soluciones de red de Broadcom. El plan contempla despliegues en instalaciones de OpenAI y en centros de datos de socios.
Sam Altman, CEO y cofundador de OpenAI: “Asociarnos con Broadcom es un paso crítico para construir la infraestructura que desbloquee el potencial de la IA y aportar beneficios reales a personas y empresas. Desarrollar nuestros propios aceleradores se suma al ecosistema de socios que están creando la capacidad necesaria para empujar la frontera de la IA”.
Hock Tan, presidente y CEO de Broadcom: “La colaboración con OpenAI marca un momento decisivo en la búsqueda de la IA general. Estamos encantados de co-desarrollar y desplegar 10 GW de aceleradores y sistemas de red de nueva generación”.
Greg Brockman, presidente y cofundador de OpenAI: “Al construir nuestro propio chip, podemos incrustar lo aprendido creando modelos frontera y productos directamente en el hardware, desbloqueando nuevos niveles de capacidad e inteligencia”.
Charlie Kawwas, presidente del Semiconductor Solutions Group de Broadcom: “Los aceleradores a medida combinan extraordinariamente bien con soluciones Ethernet estandarizadas de scale-up y scale-out, ofreciendo infraestructura optimizada en coste y rendimiento”.
Qué hay de nuevo (para la infraestructura de IA)
- Capacidad objetivo: 10 GW de potencia instalada en racks con aceleradores propios de OpenAI, integrados con Ethernet/PCIe/óptica de Broadcom.
- Modelo abierto de interconexión: elección explícita de Ethernet para escala vertical y horizontal, alejándose de alternativas propietarias.
- Calendario: H2 2026 → 2029 con entregas por fases.
- Ámbito: data centers de OpenAI y partners, con co-desarrollo y suministro asegurados por el term sheet.
Para un medio de IA, la relevancia es clara: la curva de demanda en entrenamiento e inferencia de modelos frontera obliga a controlar pila completa (modelo-sistema-red-centro de datos). OpenAI busca trasladar feedback del software al silicio, un patrón que ya diferencia a los grandes operadores.
Por qué Ethernet (y qué implica)
La apuesta por Ethernet sugiere una preferencia por estándares y ecosistemas amplios para la interconexión de clústeres. En términos prácticos:
- Facilita escala (scale-out) y modularidad con coste total más predecible.
- Simplifica la operación frente a topologías cerradas, manteniendo opciones de proveedor en óptica, switching y NICs.
- Permite iterar arquitecturas de rack y dominios de fallo con menor fricción logística.
Para Broadcom, la colaboración refuerza la tesis de que aceleradores a medida + Ethernet estandarizada pueden fijar benchmarks de coste/rendimiento/eficiencia en centros de datos de IA.
Lectura estratégica (para el ecosistema de IA)
- Control de hoja de ruta: chips y sistemas “de casa” permiten a OpenAI alinear hardware con cargas reales (pre-entrenamiento, fine-tuning, serving) y optimizar coste por step/token.
- Riesgo y suministro: el horizonte 2026–2029 abarca múltiples ciclos de iteración y riesgos (fabricación, empaquetado, memoria, energía, transmisión). Apostar por estándares mitiga parte del riesgo operativo.
- Señal de escala: “10 GW” no equivale a un único campus; implica malla multinodo y capacidad distribuida en instalaciones propias y de partners.
- Usuarios y demanda: OpenAI menciona 800 millones de usuarios activos semanales y adopción fuerte en empresas, pymes y desarrolladores; esta colaboración respalda el crecimiento esperado de capacidad.
Lo que el anuncio no detalla (y marcará la diferencia)
- Especificaciones de los aceleradores: proceso de fabricación, memoria (HBM), TDP, packaging, software stack.
- Topologías de red: topologies, niveles de oversubscription, perfiles de latencia/pérdida objetivo.
- KPIs de eficiencia: PUE y métricas energéticas por step/token a nivel de rack/pod.
- Ubicaciones y fases: nodos concretos, capacidad por fase y cronogramas intermedios.
Son variables que, en los próximos meses, determinarán coste por unidad de cómputo, latencia efectiva y capacidad de servicio para entrenamientos de gran escala.
Contexto de mercado
El movimiento de OpenAI encaja en una dinámica en la que los líderes de IA internalizan parte del diseño de aceleradores y red para sostener el avance de modelos frontera y plataformas. Frente a la presión por capacidad, energía y coste, la combinación hardware propio + estándares abiertos + socio industrial con portafolio end-to-end busca capturar eficiencias y acortar ciclos.
Citas clave
- Sam Altman (OpenAI): “Paso crítico para construir la infraestructura que desbloquee el potencial de la IA”.
- Hock Tan (Broadcom): “Momento decisivo hacia la IA general; 10 GW de aceleradores y red de nueva generación”.
- Greg Brockman (OpenAI): “Al construir nuestro propio chip, incrustamos lo aprendido en hardware y desbloqueamos nuevos niveles de capacidad”.
- Charlie Kawwas (Broadcom): “Aceleradores a medida + Ethernet estandarizada → infraestructura próxima generación optimizada en coste y rendimiento”.
En una frase
OpenAI sube un nivel: pasa de ser “solo” un líder de modelos a diseñador de aceleradores y sistemas, con Broadcom como brazo industrial y Ethernet como apuesta de escala abierta. El calendario 2026–2029 dirá cuánto de esta ambición se traduce en tokens/segundo al mejor coste/latencia de la industria.
vía: Noticias Cloud