OpenAI ha decidido responder a una de las preguntas que más inquieta a inversores y socios industriales: si el negocio de la Inteligencia Artificial puede escalar con previsibilidad o si la carrera por la infraestructura acabará devorando los márgenes. En una entrada publicada en la web oficial de la compañía y firmada por su directora financiera, Sarah Friar, la empresa sostiene una idea central: la capacidad de computación disponible y la generación de ingresos han crecido en paralelo, hasta el punto de que “añadir aceleradores” equivale, en la práctica, a “habilitar más monetización”.
El mensaje llega en un momento de máxima sensibilidad: OpenAI reconoce que la computación es el recurso más escaso del sector y que, por definición, su modelo requiere compromisos de capacidad con años de antelación. Ese contexto alimenta la lectura de que la compañía busca reforzar confianza sobre su trayectoria económica, especialmente cuando el mercado lleva meses discutiendo la sostenibilidad de los costes y los ritmos de inversión en centros de datos.
La tesis de Friar: un “ciclo virtuoso” entre computación, producto y monetización
La CFO describe una dinámica que, según OpenAI, se retroalimenta: más computación impulsa la investigación, la investigación mejora los modelos, los modelos habilitan productos más útiles, esos productos aceleran adopción y esa adopción se transforma en ingresos que financian la siguiente ola de infraestructura.
En su planteamiento, la monetización no se limita a suscripciones. OpenAI enumera un sistema “multinivel” que combina planes para consumidores, planes para equipos, precios por uso en APIs, y abre explícitamente la puerta a comercio y publicidad cuando el usuario pasa “de explorar a actuar” (decidir qué comprar, a dónde ir o qué opción elegir). La clave, insiste, es que monetizar debe sentirse “parte natural” de la experiencia y aportar valor, no ser un peaje artificial.
Los números que OpenAI pone encima de la mesa
El tramo más llamativo del texto es el que aporta métricas “duras” de capacidad y de ingresos, presentadas como prueba del paralelismo:
- Capacidad de computación: 0,2 GW en 2023; 0,6 GW en 2024; ~1,9 GW en 2025 (crecimiento anual ~3x; 9,5x de 2023 a 2025).
- Ingresos (ARR): 2.000 millones de USD en 2023; 6.000 millones en 2024; más de 20.000 millones en 2025 (crecimiento anual ~3x; 10x de 2023 a 2025).
En términos de comunicación financiera, el uso del ARR (ingresos recurrentes anualizados) es una manera de enfatizar estabilidad y repetición del ingreso (suscripciones y consumo recurrente), aunque no equivale a beneficio neto ni a “caja” disponible para invertir. El texto también subraya que, de haber tenido más computación, OpenAI cree que habría logrado adopción y monetización más rápidas, una afirmación que, por su naturaleza, es difícil de validar desde fuera, pero coherente con un negocio que depende de capacidad para servir demanda.
Infraestructura a escala “eléctrica”: el horizonte de 10 GW y acuerdos multimillonarios
El debate sobre costes no se entiende sin la escala física. Reuters informó de que el marco de un acuerdo de Nvidia con OpenAI —aún por finalizar en sus términos definitivos— contemplaría el despliegue de al menos 10 gigavatios de sistemas de Nvidia para la startup, una magnitud que se ha comparado con el consumo equivalente de millones de hogares.
Por su parte, AP explicó que la carta de intenciones vinculaba el plan a una inversión de hasta 100.000 millones de dólares y situaba el primer gigavatio de despliegue en la segunda mitad de 2026, además de enmarcar el movimiento en una red de colaboradores que incluye grandes actores del ecosistema de infraestructura.
Traducido a lenguaje llano: la computación ya no es solo una línea de gasto; es la autopista por la que circula el negocio. Y eso implica que el riesgo económico no es “tener un mal trimestre”, sino dimensionar mal —por exceso o por defecto— un activo que tarda años en materializarse.
IPO en el radar y la pregunta incómoda: ¿cuándo llega la rentabilidad?
La publicación de Friar también se lee en clave de expectativas de mercado. Reuters informó en 2025 de que OpenAI exploraba vías para una posible salida a bolsa en torno a 2027 y de que la compañía se movía en un entorno de pérdidas crecientes, pese a la rápida expansión de ingresos y a conversaciones de valoración muy elevadas.
En paralelo, el sector lleva tiempo observando que el gasto en infraestructura puede dispararse a niveles históricos: Reuters también recogió en 2025 discusiones sobre planes de inversión extremadamente ambiciosos vinculados a capacidad y centros de datos, reflejando hasta qué punto la carrera por la computación se ha convertido en una pugna estratégica.
Aquí encaja la idea que OpenAI trata de “normalizar”: que en esta industria no hay crecimiento sin anticipar capacidad, y que los periodos donde “la capacidad llega antes que el uso” forman parte del juego. La cuestión, para el mercado, es el ritmo: si el ciclo de inversión y el ciclo de monetización seguirán acompasados cuando el despliegue salte de gigavatios a decenas de gigavatios.
Del chatbot a los “agentes”: donde la monetización se vuelve más profunda (y más delicada)
El texto de OpenAI dedica espacio a lo que denomina “la siguiente fase”: agentes y automatización de flujos de trabajo capaces de mantener contexto en el tiempo y actuar sobre herramientas. Ese salto —de responder a preguntas a ejecutar tareas— suele ser el punto donde la utilidad se vuelve más “pegajosa” y recurrente… pero también donde aumentan los riesgos: errores con impacto, automatizaciones mal configuradas o decisiones delegadas sin supervisión.
En otras palabras, si la tesis “más computación = más ingresos” se sostiene, el combustible principal no será solo atender más chats, sino orquestar más trabajo continuo, más integrado y más sensible para empresas y usuarios.
Las “leyes de Asimov” como metáfora útil (pero insuficiente) para la IA y la robótica
En debates sobre automatización, es habitual recuperar las Tres Leyes de la Robótica de Isaac Asimov como atajo cultural: no dañar a humanos, obedecer órdenes humanas y preservarse a sí mismo, con la obediencia subordinada a la seguridad. Para robótica y para Inteligencia Artificial “agéntica”, la metáfora sigue siendo potente por dos motivos:
- Prioriza seguridad sobre rendimiento, algo especialmente relevante cuando la presión por escalar computación empuja a desplegar sistemas más capaces y autónomos.
- Introduce jerarquía de reglas, similar a cómo hoy se discute la necesidad de “guardarraíles” (políticas, controles, auditoría, trazabilidad) en agentes que ejecutan acciones.
Sin embargo, en el mundo real, las “leyes” de Asimov no resuelven lo más difícil: definir qué es “daño”, cómo se detecta a tiempo, quién responde por un fallo, y cómo se controla un sistema que aprende de datos imperfectos. Por eso, cuando OpenAI habla de integrar monetización de forma “natural” y de llevar la Inteligencia Artificial a decisiones y acciones, el subtexto inevitable es que la confianza y la seguridad pasan a ser parte del modelo económico: sin ellas, la adopción se frena, y con ella el “ciclo virtuoso” que la compañía describe.
Preguntas frecuentes
¿Qué significa ARR y por qué OpenAI lo usa para hablar de ingresos?
El ARR (ingresos recurrentes anualizados) estima cuánto ingresaría una empresa en un año si mantuviera el nivel actual de ingresos recurrentes (suscripciones y consumo repetido). Sirve para medir tracción, pero no equivale a beneficios ni a flujo de caja.
¿Qué implica hablar de capacidad en gigavatios (GW) en Inteligencia Artificial?
Expresar capacidad en GW aproxima el despliegue a una magnitud energética: centros de datos, refrigeración y suministro eléctrico. En la práctica, refleja el salto de “comprar GPUs” a construir infraestructura industrial.
¿Cómo monetiza OpenAI más allá de las suscripciones a ChatGPT?
Además de planes de consumo y equipos, OpenAI monetiza por uso mediante APIs para desarrolladores y empresas. También plantea comercio y publicidad ligados a decisiones del usuario, siempre que sean relevantes y útiles.
¿Por qué se mencionan los agentes como la “siguiente fase”?
Porque automatizar tareas continuas (gestión de proyectos, operaciones repetitivas, flujos entre herramientas) puede aumentar la recurrencia de uso y el valor capturable, aunque también eleva las exigencias de control y seguridad.
vía: openai



