La carrera contrarreloj de OpenAI: entre la burbuja de la IA, la sombra de Google y el aviso cuántico de Pat Gelsinger

El debate sobre si la inteligencia artificial vive una burbuja ya no es cosa de agoreros de Twitter, sino de gente que ha tenido en sus manos el timón de la industria. Pat Gelsinger, ex consejero delegado de Intel, ha puesto palabras a un temor cada vez más extendido: que un salto brusco en computación cuántica pueda “reventar” la economía actual de la IA en apenas un par de años. Y, de paso, ha dejado un dardo envenenado: Sam Altman, dice, está usando a Microsoft como Microsoft usó a IBM en los años 80.

Al mismo tiempo, OpenAI intenta algo extremadamente delicado: quemar decenas de miles de millones de dólares para construir su propia infraestructura antes de que el dinero barato se acabe… mientras Google, Anthropic, Meta y otros actores reducen cada mes la distancia tecnológica.

OpenAI: crecer a toda costa antes de que se acabe la música

Según los datos que se han ido filtrando en los últimos meses, OpenAI habría pasado de ingresos casi inexistentes en 2022 a una proyección de unos 13.000 millones de dólares anuales en 2025. La compañía se ha marcado un objetivo casi descomunal: alcanzar 200.000 millones de ingresos en 2030, multiplicando por 13 su tamaño en menos de cinco años.

Para lograrlo, está dispuesta a quemar cifras igualmente históricas: alrededor de 90.000 millones en I+D hasta 2030, casi la mitad de los ingresos que aspira a generar. Se trata de un nivel de gasto muy superior al de los gigantes tecnológicos clásicos, que suelen destinar entre el 15 % y el 30 % de sus beneficios brutos a investigación, no de sus ingresos totales.

Detrás de esos números hay una obsesión estratégica: dejar de depender de los chips y centros de datos de terceros. Hoy OpenAI vive colgada de la infraestructura de Microsoft y de las GPU de NVIDIA. Si la inversión en IA se frenase de golpe en 2026 o 2027, podría encontrarse en el peor escenario posible: miles de millones gastados, una infraestructura propia a medio construir y competidores que sí controlan sus fábricas de cómputo (como Google con sus TPUs).

La metáfora es sencilla: da igual cuánto cueste un puente; si solo llega hasta la mitad del río, no sirve de nada.

El “juego de poder” según Gelsinger: Altman–Microsoft como Gates–IBM

La otra idea de Pat Gelsinger es casi literaria: igual que Bill Gates construyó el imperio de Microsoft sobre la espalda de IBM, Sam Altman estaría apoyándose en Microsoft para convertirse en algo más grande que su propio socio.

En los 80, IBM ponía la máquina y Microsoft ponía el cerebro (el sistema operativo y el software). Hoy, Microsoft pone la nube, el capital y el músculo comercial, mientras OpenAI pone los modelos y el “intelecto” de la nueva era. Si el valor migra hacia la capa de modelo y plataforma, el riesgo para Microsoft es acabar siendo “la infraestructura” sobre la que alguien más captura el margen.

La diferencia, como recuerda el propio Gelsinger, es que ahora el tablero es global, las inversiones se miden en cientos de miles de millones y la velocidad de adopción es mucho mayor. Un pinchazo brusco en la inversión de IA no solo afectaría a OpenAI, sino también a los planes de Microsoft, Google, Amazon, Meta y el resto de actores que están llenando el mundo de data centers y GPU.

Google, Anthropic, Meta, xAI… la competencia aprieta por todos lados

Mientras OpenAI corre, sus rivales no están quietos. Y muchos de ellos tienen algo que OpenAI aún no: infraestructura propia y negocios maduros que imprimen dinero para financiar la carrera.

Google y Gemini 3 Pro
Google y su división DeepMind han convertido Gemini 3 Pro en su apuesta más ambiciosa: un modelo multimodal avanzado, con fuerte foco en agentic coding y orquestación de herramientas, capaz de descomponer tareas complejas, llamar a APIs en cadena y verificar resultados paso a paso.

Además, Google juega con varias ventajas estructurales:

  • TPUs diseñadas a medida desde hace una década.
  • Un flujo de caja anual enorme procedente de Search, YouTube y Google Cloud.
  • Un ecosistema de productos (Workspace, Android, Chrome) donde integrar Gemini casi de forma nativa.

No es casual que directivos como Marc Benioff (Salesforce) hayan proclamado en público que Gemini 3 les parece, en ciertos escenarios, por delante de ChatGPT, especialmente en razonamiento, velocidad y capacidades multimodales.

Anthropic y la ofensiva “enterprise”
Anthropic, fundada por ex empleados de OpenAI, se ha consolidado como el otro gran actor independiente. Sus modelos Claude 3 y Claude 3.5 se han posicionado muy bien en generación de código, uso de herramientas y tareas empresariales.

Según estimaciones de mercado, la compañía aspira a alcanzar unos 1.700 millones de dólares de ingresos recurrentes anuales en 2025, con un fuerte crecimiento apoyado en su presencia en Amazon Bedrock, Google Cloud y acuerdos directos con grandes empresas.

Su estrategia es clara: menos foco en el gran público y más en desarrolladores y corporaciones que necesitan modelos fiables, gobernables y bien integrados en sus sistemas.

Meta y la presión del código abierto
Meta está jugando otra partida distinta, pero igual de peligrosa para el modelo de negocio de OpenAI: la de commoditizar la tecnología base con Llama 3 y sucesores, liberando modelos potentes bajo licencias relativamente permisivas.

Con esa estrategia, empuja el precio efectivo del “modelo bruto” hacia cero y desplaza la batalla hacia la integración, los datos propios y los servicios de valor añadido. Para muchos casos de uso corporativos, un Llama 3 bien afinado puede ser “suficientemente bueno” y, sobre todo, mucho más barato de operar en infraestructura propia o en la nube que un GPT cerrado.

El resto del pelotón
A todo ello se suman:

  • xAI, con Grok y el altavoz constante de X.
  • Mistral, que aspira a convertirse en el campeón europeo de modelos abiertos.
  • Cohere, centrada en lenguaje empresarial y búsqueda semántica.
  • Laboratorios más especializados en imagen o audio (Black Forest Labs con FLUX, Stability AI, etc.).

El resultado es un ecosistema donde cualquier avance de OpenAI es replicado en meses y donde la única ventaja duradera parece ser la combinación de infraestructura, costes y distribución.

¿Y si la críptonita cuántica llega antes de tiempo?

En este contexto, la frase más explosiva de Gelsinger es la que apunta a la computación cuántica. Mientras figuras como Jensen Huang sitúan un uso masivo de ordenadores cuánticos a veinte años vista, el ex CEO de Intel sugiere que un avance relevante podría llegar en apenas dos años.

Si ese escenario se materializara, cambiaría por completo la economía de la IA:

  • El hardware actual (GPU y TPU) podría perder parte de su atractivo para ciertas cargas de trabajo.
  • Se abriría una nueva batalla por el control de los procesadores cuánticos y los algoritmos asociados.
  • Muchas inversiones en centros de datos tal y como se conciben hoy se revalorizarían o quedarían obsoletas más rápido de lo previsto.

La mayoría de expertos sigue siendo más conservadora, pero no es casual que laboratorios, universidades y gobiernos estén acelerando la investigación en computación cuántica en paralelo a la ola de IA generativa.

La verdadera pregunta: ¿es una burbuja… o un cambio de era?

En el corto plazo, todo huele a burbuja: valoraciones estratosféricas, expectativas de ingresos casi imposibles, una carrera desenfrenada por construir centros de datos y acaparar GPU, y un discurso que promete “superinteligencias” capaces de transformar la economía mundial en pocos años.

Pero, al mismo tiempo, hay señales de que esto no es solo espuma especulativa:

  • Modelos que ya automatizan tareas reales de programación, atención al cliente, diseño o análisis de datos.
  • Ahorros de costes medibles en ciertas industrias.
  • Una adopción masiva por parte de usuarios y empresas en tiempos récord.

Para OpenAI, el dilema es brutal: necesita que la fiesta dure lo suficiente como para terminar su puente (chips propios, centros de datos propios, costes competitivos). Para Google, Microsoft, Meta o Amazon, el riesgo es menor: tienen negocios alternativos que seguirán generando dinero aunque la IA se desinfle un poco.

La década que se abre decidirá si la visión de Gelsinger —cuántica acelerada, burbuja pinchando y reconfiguración total del mercado— se impone, o si lo que estamos viendo es simplemente el equivalente al estallido de la burbuja “.com”: una purga dolorosa que deja en pie a los actores que de verdad aportan valor.

Mientras tanto, la única certeza es que la competencia aprieta y que nadie, ni siquiera OpenAI, puede dormirse pensando que la ventaja actual es permanente.


Preguntas frecuentes

¿Qué quiere decir que Sam Altman “usa a Microsoft como Microsoft usó a IBM”?
La frase de Pat Gelsinger hace referencia a la dinámica de poder de los años 80: IBM ponía los ordenadores personales y Microsoft el sistema operativo y el software, capturando gran parte del valor. Hoy, Microsoft aporta la nube, el capital y la distribución, mientras que OpenAI aporta los modelos punteros. Si, con el tiempo, el valor se concentra en la capa de modelo y plataforma, Microsoft corre el riesgo de ser “solo” la infraestructura sobre la que alguien más construye el negocio principal.

¿Quiénes son hoy los principales competidores de OpenAI en modelos de IA generativa?
Los rivales más relevantes son Google (con la familia Gemini), Anthropic (Claude 3/3.5, muy fuerte en automatización y código), Meta (Llama 3 y su apuesta por el código abierto), además de actores como xAI, Mistral o Cohere. Google destaca por su infraestructura propia de TPUs y su integración en productos masivos, mientras que Anthropic está ganando mucha tracción como proveedor para empresas y desarrolladores.

¿Por qué se habla de “burbuja” en la inversión en IA?
Porque las expectativas de ingresos y beneficios futuros son enormes, los planes de gasto en I+D y centros de datos se cuentan en decenas de miles de millones y muchas compañías aún no han demostrado que puedan sostener esos niveles de inversión con beneficios reales. Si el crecimiento se estanca o los tipos de interés siguen altos, podría producirse un ajuste brusco de valoraciones y proyectos, similar a lo ocurrido con las puntocom a principios de los 2000.

¿Cómo podría afectar la computación cuántica al mercado actual de IA generativa?
Si la computación cuántica lograse avances significativos antes de 2030, podría alterar la economía del hardware sobre el que se ejecuta la IA: parte de las inversiones en GPU y centros de datos clásicos podrían depreciarse más rápido de lo esperado y aparecería una nueva carrera por controlar procesadores cuánticos y algoritmos específicos. La mayoría de analistas cree que el impacto masivo tardará más de una década, pero voces como la de Gelsinger alertan de que podría llegar mucho antes de lo que la industria asume.

vía: La burbuja de la IA

Scroll al inicio