La fiebre inversora alrededor de la Inteligencia Artificial empieza a parecerse menos a una carrera tecnológica lineal y más a una partida de cubiletes. El dinero se mueve deprisa, cambia de manos, aparece como inversión, reaparece como contrato de infraestructura y termina reforzando las cuentas del mismo grupo de compañías que lo puso en circulación. La escena es brillante, sofisticada y difícil de seguir. También exige más prudencia de la que suele verse en los titulares.
La metáfora del trilero, utilizada por Julián de Cabo en una publicación reciente en LinkedIn, resume bien el momento: los grandes actores invierten, compran, revenden, se financian entre sí y celebran crecimientos que, en algunos casos, nacen de relaciones cruzadas entre proveedor, cliente y accionista. No significa que todo sea humo. La tecnología funciona, los usuarios existen y muchas empresas están encontrando valor real en nuevos productos de Inteligencia Artificial. Pero una cosa es que la IA sea útil y otra muy distinta que todas las valoraciones y compromisos de gasto construidos a su alrededor sean sostenibles.
Cuando la inversión también es facturación futura
El patrón se repite con distintas variaciones. Una gran tecnológica invierte miles de millones en una compañía de modelos de Inteligencia Artificial. Esa compañía, a su vez, necesita cantidades enormes de computación para entrenar y servir sus sistemas. La computación se compra en la nube del inversor o se apoya en hardware del propio inversor. El dinero, así, no sale del todo del circuito: se convierte en gasto cloud, en pedidos de GPUs, en compromisos de capacidad o en expectativas de ingresos futuros.

Microsoft y OpenAI son el ejemplo más conocido. La inversión de Microsoft ayudó a financiar el crecimiento de OpenAI, mientras buena parte de esa actividad se ha apoyado en Azure. El resultado es una lectura de mercado muy favorable para Microsoft: crece por la nube, pero también por su exposición a la Inteligencia Artificial. La frontera entre ambas narrativas se ha vuelto difusa, porque una alimenta a la otra.
Amazon y Anthropic han seguido una lógica parecida, con AWS como proveedor central de infraestructura. Google también ha reforzado su relación con Anthropic, pese a competir con ella mediante Gemini. Esa mezcla de rivalidad, inversión y dependencia operativa define una de las paradojas más llamativas del sector: las compañías compiten por liderar la IA mientras financian o alojan a algunos de sus competidores más relevantes.
El fenómeno no tiene por qué ser ilegal ni irregular. Las inversiones estratégicas son habituales en tecnología. El problema aparece cuando el mercado empieza a valorar como demanda orgánica lo que en parte puede ser demanda inducida por acuerdos financieros, participaciones cruzadas o contratos firmados entre empresas que se necesitan mutuamente para sostener la narrativa de crecimiento.
NVIDIA, CoreWeave y Oracle: distintas caras del mismo ciclo
NVIDIA ocupa una posición singular. No necesita vender la promesa de la Inteligencia Artificial: vende las herramientas que todos necesitan para construirla. Sus GPUs, redes y sistemas completos se han convertido en la base de buena parte del despliegue global de IA. Aun así, su papel como inversor en empresas que compran o revenden capacidad basada en sus propios chips añade otra capa al análisis.
CoreWeave representa bien esa dinámica. La compañía ha crecido como proveedor especializado en infraestructura acelerada, con un negocio muy ligado a GPUs de NVIDIA. Cuando un fabricante de chips invierte en una empresa que compra esos chips y los convierte en capacidad cloud, el círculo financiero se vuelve más difícil de interpretar. Hay ventas reales, pero también un incentivo evidente para sostener el crecimiento del canal.
Oracle plantea otro tipo de dudas. Su apuesta por grandes contratos de infraestructura de IA ha sido recibida con entusiasmo por los mercados, pero también ha elevado las preguntas sobre deuda, flujo de caja y concentración de riesgo. Construir centros de datos para atender compromisos gigantescos exige capital, energía, suministro eléctrico, chips, permisos, suelo y una ejecución impecable. Si el cliente final no crece al ritmo previsto o renegocia sus necesidades, el proveedor se queda con activos caros y una presión financiera considerable.
El sector tecnológico conoce bien estas fases. Primero llega la promesa, después la inversión masiva y, finalmente, la comparación entre capacidad construida y demanda real. La nube pública pasó por un proceso similar, aunque con una diferencia importante: el mercado cloud tenía casos de uso empresariales más consolidados y una trayectoria de adopción más gradual. En la Inteligencia Artificial generativa, muchas previsiones se están haciendo sobre comportamientos de consumo todavía inmaduros.
El precio del token y la pregunta incómoda
La tensión más importante está en la economía del token. Los grandes modelos cuestan mucho de entrenar y de servir, pero el precio por uso tiende a bajar con rapidez por la competencia, la mejora de la eficiencia y la aparición de modelos abiertos cada vez más capaces. Si el coste de producción baja, eso puede ser positivo para los clientes. Pero para quienes están invirtiendo cientos de miles de millones en infraestructura, la caída del precio obliga a multiplicar el volumen de uso para mantener las expectativas de ingresos.
Ahí aparece la pregunta de fondo: ¿habrá suficiente demanda rentable para llenar todos esos centros de datos? No basta con que millones de personas usen chatbots, asistentes de programación o herramientas de búsqueda con IA. La clave es si esos usos generan margen suficiente para pagar chips, energía, redes, refrigeración, suelo, deuda y renovación tecnológica constante.
Los hiperescalares pueden absorber parte de esa presión porque tienen negocios diversificados. Una startup de modelos, no tanto. Si depende de rondas de financiación, acuerdos cloud y una futura salida a bolsa para cubrir compromisos de infraestructura, cualquier desaceleración en ingresos puede cambiar muy rápido la percepción del mercado. La Inteligencia Artificial puede ser una tecnología transformadora y, al mismo tiempo, estar rodeada de valoraciones demasiado exigentes. Ambas cosas pueden ser ciertas a la vez.
También conviene recordar el papel de TSMC. Mientras las tecnológicas compiten por modelos, nube y usuarios, la fabricación avanzada de chips sigue concentrada en pocos actores. TSMC no necesita ganar todos los debates sobre qué modelo será dominante. Si la demanda de aceleradores continúa, vende capacidad de fabricación a quienes diseñan los chips que sostienen la carrera. En la metáfora del casino, es uno de los pocos actores que cobra aunque cambien los jugadores de la mesa.
El mercado no está ante una burbuja sencilla de diagnosticar. Hay ingresos reales, clientes reales y avances técnicos indiscutibles. Pero también hay inversiones circulares, contratos de enorme tamaño, dependencia de valoraciones futuras y una carrera por construir capacidad antes de saber con precisión cuánta demanda rentable existirá. La bolita puede estar en la Inteligencia Artificial. Puede estar en la nube. Puede estar en los chips. O puede estar, simplemente, en la capacidad de financiar la próxima ronda antes de que alguien levante el cubilete.
Preguntas frecuentes
¿Qué son las inversiones cruzadas en Inteligencia Artificial?
Son operaciones en las que una empresa invierte en otra que, a su vez, utiliza ese dinero para comprarle servicios, infraestructura o hardware. No son necesariamente irregulares, pero pueden dificultar la lectura real de la demanda.
¿Por qué preocupa el gasto en centros de datos de IA?
Porque construir infraestructura de IA exige inversiones muy elevadas en chips, energía, redes y refrigeración. Si la demanda rentable no crece al ritmo esperado, algunas compañías podrían tener dificultades para justificar esos compromisos.
¿La Inteligencia Artificial está en una burbuja?
No se puede afirmar de forma absoluta. La tecnología genera valor real, pero algunas valoraciones y contratos parecen depender de expectativas muy ambiciosas sobre crecimiento futuro, reducción de costes y adopción empresarial.
¿Por qué TSMC aparece como ganador indirecto?
Porque fabrica chips avanzados para buena parte de la industria. Aunque cambien los modelos ganadores o los proveedores cloud dominantes, la demanda de semiconductores avanzados sigue beneficiando a los fabricantes con capacidad puntera.













