Durante meses, OpenAI parecía jugar en otra liga. Tras el lanzamiento de la familia GPT-5, la sensación general era que la compañía de Sam Altman marcaba el paso y el resto corría detrás. Pero el tablero se ha movido rápido: la llegada de Google Gemini 3, el empuje de Anthropic con sus nuevos Claude y el avance de modelos open source como DeepSeek V3.2 han encendido las alarmas en San Francisco. Literalmente.
Según filtraciones recogidas por varios medios, OpenAI habría activado una especie de “alerta roja” interna al ver de cerca lo que es capaz de hacer Gemini 3, especialmente en razonamiento y multimodalidad (texto, imagen, audio y vídeo en un mismo flujo). No es solo una cuestión de orgullo técnico: es una amenaza directa al producto estrella de la casa, ChatGPT, y al liderazgo de la compañía en el mercado de los modelos de lenguaje.
A esa presión se suma ahora un frente doble: por arriba, los grandes rivales comerciales; por abajo, una ola de modelos abiertos cada vez más competitivos.
Gemini 3: el baño de realidad que no esperaban en OpenAI
El golpe más visible llega desde Mountain View. Las primeras evaluaciones internas de empresas que han podido probar Gemini 3 apuntan a mejoras muy claras frente a la generación anterior, sobre todo en tareas de razonamiento complejo y en vídeo.
El caso que ha hecho más ruido es el de Marc Benioff, CEO de Salesforce, que ha reconocido públicamente que ha dejado de usar ChatGPT a diario para pasarse a Gemini en su trabajo. En un mercado tan sensible a los gestos de los grandes ejecutivos, ese movimiento pesa casi tanto como un benchmark.
Para OpenAI, el mensaje es brutalmente claro: ya no basta con tener “un buen modelo”; hace falta tener el mejor modelo y la infraestructura para servirlo a escala, con calidad y costes sostenibles.
De ahí la sensación de urgencia: ChatGPT tiene que mejorar —y mucho— en poco tiempo si quiere seguir siendo la referencia para usuarios y empresas.
No es solo Google: Claude y el open source también muerden
Lo de Google sería suficientemente complicado… si fueran los únicos. Pero no lo son.
Anthropic, respaldada por Amazon, lleva meses recortando distancias con la familia Claude. Sus modelos más recientes se mueven en la misma liga que GPT-5 en muchas tareas y en algunos escenarios empresariales empiezan a ser la opción preferida por su enfoque en seguridad, explicabilidad y control fino.
Y por debajo, los modelos open source ya no son juguetes de laboratorio. Proyectos como DeepSeek V3.2, entrenado por el equipo chino de DeepSeek, han sorprendido a la comunidad por su relación calidad-coste, con resultados competitivos en razonamiento, codificación y tareas técnicas en general, especialmente cuando se afinan y despliegan sobre infraestructuras propias.
La consecuencia es clara:
- Las grandes corporaciones empiezan a diseñar arquitecturas “multi-modelo”, donde OpenAI es uno más, no el único proveedor.
- Gobiernos y grandes empresas europeas y asiáticas miran cada vez más hacia modelos abiertos por razones de soberanía tecnológica y costes.
En ese contexto, OpenAI ya no compite solo con Google y Anthropic por la “mejor demo”, sino contra un ecosistema entero que abarata y democratiza capacidades que antes parecían inalcanzables.
El verdadero problema: una factura de hardware de 1,4 billones
La parte más inquietante de esta “alerta roja” no está en el software, sino en el hormigón, el cobre y los chips.
Según un análisis filtrado y recogido por Business Insider, un consorcio liderado por Microsoft y OpenAI contempla invertir hasta 1,4 billones de dólares en centros de datos y hardware de IA (GPU, TPU y redes asociadas) durante los próximos ocho años. No es una cifra cualquiera: es más que el PIB anual de muchos países desarrollados.
La razón es simple: mantener —y ampliar— la capacidad de cómputo necesaria para servir modelos de la escala de GPT-5.x a cientos de millones de usuarios semanales, con latencias razonables, no es una cuestión de “unos cuantos racks más”. Es una carrera industrial de fondo.
En paralelo, NVIDIA lleva tiempo explicando que los centros de datos se han convertido en auténticas “fábricas de IA”, donde el cuello de botella no está en el código, sino en cuánta energía, refrigeración y silicio puedes pagar y gestionar.
Ahí es donde OpenAI parte en desventaja frente a rivales como Google o Amazon:
- Google controla de extremo a extremo toda la cadena: diseño de chips (TPU), centros de datos propios y un negocio publicitario gigantesco que subsidia la inversión en IA.
- Amazon integra sus apuestas de IA dentro de AWS, el mayor negocio cloud del mundo, con una base de clientes empresariales fidelizada.
- OpenAI, en cambio, sigue siendo una empresa dependiente de socios (Microsoft, en primer lugar) y todavía no es rentable.
Si el juego se decide por quién puede construir y alimentar más “fábricas de IA” al menor coste por token, la partida no está ni mucho menos ganada.
¿Y el usuario en todo esto? Menos magia, más ingeniería
La declaración de “alerta roja” en OpenAI no hay que leerla como un fin de ciclo, sino como el reconocimiento de que la fase romántica de la IA generativa —la de los grandes saltos de demo en demo— está tocando a su fin.
Lo que viene ahora es menos vistoso pero mucho más duro:
- Exprimir cada vatio de GPU o TPU con mejores compiladores, cuantización y algoritmos de scheduling.
- Rediseñar los modelos para que sean más eficientes sin perder calidad, apoyándose en técnicas como Mixture of Experts y en distillation sobre modelos más compactos.
- Optimizar la red y el stack de inferencia para servir millones de peticiones con la menor latencia y coste posible.
Es, en esencia, una guerra de ingeniería industrial y de optimización de infraestructuras a escala planetaria. En ese escenario, el “mejor modelo” ya no es solo el que saca más puntos en un benchmark académico, sino el que ofrece la mejor combinación de:
- Calidad percibida por el usuario
- Latencia
- Coste por consulta
- Seguridad y cumplimiento normativo
Y aquí es donde los modelos open source como DeepSeek V3.2 o los futuros Llama y Mistral tienen una carta muy potente: aunque no siempre ganen en la tabla de récords, pueden desplegarse on-premise, en nubes privadas o sobre hardware ya amortizado, con un control total de datos y costes.
¿Se romperá el tablero o se repartirá el mercado?
La gran pregunta no es si OpenAI va a desaparecer (no va a ocurrir), sino cómo va a quedar repartido el mapa dentro de unos pocos años.
Un escenario razonable podría ser algo así:
- OpenAI mantiene una posición fuerte en el segmento “premium SaaS de IA”, con productos como ChatGPT y API orientada a empresas que busquen simplicidad y calidad máxima.
- Google, Anthropic y otros grandes capturan una parte relevante del mercado corporativo, integrando IA en sus ecosistemas (Google Workspace, AWS, Salesforce, etc.).
- El open source crece con fuerza en gobiernos, banca, industria y empresas obsesionadas con la soberanía del dato y el control de costes.
En ese contexto, la “alerta roja” de OpenAI no es tanto una señal de pánico como una llamada a bajar de la nube (nunca mejor dicho) y asumir que la batalla ya no se libra solo en el plano algorítmico, sino también —y sobre todo— en el de la infraestructura y la eficiencia industrial.
Lo que sí parece evidente es que la pelea acaba de subir de nivel: el dinero manda, el hardware decide y, al final, serán los usuarios —personas y empresas— los que acaben dictando sentencia con su uso diario.
La única duda real es quién se va a quedar sin aire primero en esta carrera de fondo: el que no tenga el mejor modelo, el que no pueda pagar la factura eléctrica… o el que llegue tarde al equilibrio entre ambos.



