OpenAI ha dado un nuevo giro en su estrategia de infraestructura tras firmar un acuerdo inesperado con Google Cloud para acceder a sus recursos de computación, justo cuando la empresa atraviesa uno de sus mayores picos de demanda y enfrenta episodios de caídas de servicio a nivel mundial. Pese a que la compañía dirigida por Sam Altman ha planteado públicamente la posibilidad de construir sus propios centros de datos, este movimiento evidencia que, de momento, OpenAI prefiere seguir apoyándose en la red global de los grandes hiperescalares —Microsoft Azure, Oracle, Google y, en menor medida, AWS— antes que lanzarse a gestionar su propia infraestructura.
Un paso atrás en soberanía, un paso adelante en flexibilidad
La decisión de firmar con Google Cloud —rival directo en inteligencia artificial— llega tras años de exclusividad con Microsoft Azure y tras el anuncio del mastodóntico proyecto Stargate junto a Oracle y SoftBank. Lejos de avanzar hacia una mayor soberanía tecnológica, OpenAI parece reconocer que la construcción y gestión de data centers propios implica una complejidad y una inversión gigantesca, que por ahora no están dispuestos a asumir. En cambio, prioriza la flexibilidad y la rapidez de acceso a recursos —especialmente chips personalizados como los TPU de Google— aunque eso suponga una mayor dependencia de proveedores externos.
En un mercado donde la infraestructura cloud es ya un recurso tan estratégico como escaso, OpenAI opta por “ir a lo seguro”: usar la enorme capacidad de los hiperescalares para entrenar y desplegar sus modelos, manteniendo así la agilidad para escalar en función de la demanda y competir globalmente. Esta decisión, sin embargo, tiene un coste: menos control directo, menos autonomía y una exposición creciente a las reglas y precios impuestos por terceros.
¿Independencia real o juego a varias bandas?
La propia OpenAI ha insinuado en diversas ocasiones que acabarán desarrollando chips y centros de datos propios, pero de momento ese horizonte se retrasa. En la práctica, la empresa sigue apostando por alianzas con gigantes cloud incluso cuando compiten en la capa de IA: Google, Microsoft, Oracle… Todos suman a la ecuación mientras OpenAI intenta evitar cuellos de botella, saturación de hardware y picos de demanda insatisfecha.
Paradójicamente, la lucha por la supremacía en IA está impulsando a los grandes a cooperar en la infraestructura base, aunque luego compitan ferozmente por los usuarios finales y los clientes empresariales. Hoy por hoy, OpenAI prefiere jugar sobre seguro y evitar los enormes riesgos de construir y operar sus propios data centers, aunque eso suponga ceder parte de su independencia estratégica.
Una apuesta pragmática, pero con fecha de caducidad
La gran incógnita es cuánto durará esta fase. A medida que la IA demande aún más recursos y que la geopolítica y la privacidad exijan mayor control sobre los datos y los modelos, es probable que OpenAI —como otros actores del sector— se vea obligada a invertir en infraestructuras propias si quiere mantener su liderazgo y su soberanía tecnológica.
Por ahora, la jugada es pragmática: aprovechar al máximo la nube de los hiperescalares, aunque eso signifique que, en la carrera de la inteligencia artificial, los cimientos tecnológicos sigan en manos ajenas. El verdadero salto vendrá el día que OpenAI apueste definitivamente por construir su propio “cloud”. Hasta entonces, la batalla será por la capacidad y la flexibilidad… aunque el control absoluto todavía esté en el aire.
Vía: Reuters y Revista cloud