El gasto mundial en cloud público avanza hacia una cifra difícil de ignorar: más de 1 billón de dólares en 2026, según las previsiones de Forrester. El problema es que una parte importante de esa factura no se traduce en valor, producto ni mejora operativa. Se pierde antes, en servidores encendidos sin carga, instancias sobredimensionadas, almacenamiento olvidado, snapshots huérfanos, transferencias mal diseñadas, licencias sin uso y, cada vez más, GPUs reservadas para cargas de inteligencia artificial que no se aprovechan bien.
Durante años, el discurso cloud se apoyó en una promesa sencilla: pagar solo por lo que se usa. En la práctica, muchas organizaciones pagan por lo que creen que pueden llegar a necesitar, por lo que nadie se atreve a apagar y por lo que ya nadie recuerda quién creó. La nube no es necesariamente cara por naturaleza. Se vuelve cara cuando crece más rápido que la disciplina de gestión.
Los datos de Flexera, Gartner, Forrester, Datadog, HashiCorp y FinOps Foundation dibujan un patrón consistente: la inversión cloud sigue subiendo, la inteligencia artificial acelera el consumo y la visibilidad financiera no avanza al mismo ritmo. El resultado es una paradoja incómoda para CIOs, CTOs y CFOs: las empresas están aumentando gasto en infraestructura para innovar, pero una parte relevante de ese gasto sigue escapándose por ineficiencias conocidas.
De 723.000 millones en 2025 al billón en 2026
Gartner estimó que el gasto mundial de usuarios finales en servicios de cloud público alcanzaría los 723.400 millones de dólares en 2025, un 21,5 % más que en 2024. Forrester, por su parte, situó el mercado de cloud público por encima del billón de dólares en 2026. La cifra encaja con una realidad que ya se ve en los presupuestos: el cloud se ha convertido en una de las grandes partidas de tecnología empresarial, junto a software, servicios TI, datos e infraestructura.
Los grandes hiperescalares siguen dominando. AWS conserva alrededor del 30 % del mercado, Azure ronda el 20 % y Google Cloud se sitúa cerca del 13 %, según los datos recogidos por el análisis de Zop. Entre los tres controlan aproximadamente el 63 % de los ingresos globales de infraestructura cloud. Pero el crecimiento no es igual para todos: Azure y Google Cloud avanzan a ritmos superiores a AWS, lo que estrecha la distancia con el líder.
La inteligencia artificial es el gran acelerador. En el informe de FinOps Foundation, el 63 % de los profesionales FinOps ya gestiona gasto relacionado con IA, frente al 31 % del año anterior. Flexera también detecta que la IA ha pasado de la fase experimental al uso cotidiano: en su informe de 2026, el 81 % de las organizaciones afirma usar IA generativa, frente al 72 % del año anterior y el 47 % en 2024.
El crecimiento no se limita a licencias o APIs. La IA consume GPUs, memoria, redes de alto rendimiento, almacenamiento, bases de datos, observabilidad y servicios gestionados. Cada agente, cada flujo de inferencia, cada prueba con modelos y cada pipeline de entrenamiento añade una capa nueva de consumo que muchas organizaciones todavía no saben atribuir correctamente a equipos, productos o clientes.
El 29 % de gasto desperdiciado vuelve a preocupar
El dato que debería aparecer en cualquier revisión trimestral de gasto cloud es el desperdicio estimado. Flexera indica que, tras cinco años de descenso, el gasto cloud desperdiciado subió ligeramente hasta el 29 % en 2026, impulsado por la complejidad de las cargas de IA y nuevos servicios IaaS y PaaS. Si se aplica ese porcentaje al mercado de 1 billón de dólares previsto por Forrester, el resultado ronda los 290.000 millones de dólares en gasto que no genera valor directo.
No todo ese desperdicio tiene la misma causa. El análisis de Zop lo desglosa en varias categorías: la computación ociosa concentra el 35 %, las instancias sobredimensionadas el 25 %, el almacenamiento no asociado el 15 %, los snapshots huérfanos el 10 %, la transferencia de datos mal optimizada otro 10 % y las licencias sin uso el 5 %. La mayor parte de estos problemas no son nuevos. Lo nuevo es que la IA los agrava porque introduce cargas más variables, caras y difíciles de prever.
El caso de las máquinas virtuales es clásico. Datadog detectó que una gran proporción de instancias EC2 trabaja por debajo de niveles bajos de utilización durante ventanas prolongadas, mientras el coste sigue corriendo. En Kubernetes ocurre algo parecido: muchas organizaciones reservan CPU y memoria para picos que no llegan o que podrían gestionarse mejor con autoescalado, límites adecuados y revisión continua.
La mecánica es conocida por cualquier equipo de infraestructura. Se provisiona para el pico, pero el sistema vive en el promedio. Nadie quiere ser responsable de una caída por falta de recursos, así que se deja margen. El margen se convierte en costumbre. La costumbre se convierte en factura. Y cuando nadie revisa propietarios, etiquetas, uso real y ventanas horarias, la nube se llena de recursos que siguen encendidos porque apagar cuesta más políticamente que pagar.
La IA introduce un FinOps más difícil
La gestión de costes cloud ya era compleja antes de la IA. Multicloud, descuentos por compromiso, instancias reservadas, tráfico entre regiones, Kubernetes, SaaS, licencias y servicios gestionados bastaban para complicar cualquier forecast. La IA añade otro tipo de problema: consumo muy variable, dependencia de GPUs, costes por token, modelos con precios diferentes, ventanas de contexto largas, agentes que ejecutan varias llamadas y pruebas que pueden escalar sin que nadie las vea hasta fin de mes.
Por eso el dato de FinOps Foundation es relevante. Que el 63 % de los equipos FinOps ya controle gasto de IA supone un avance, pero también deja a un 37 % sin visibilidad suficiente sobre una de las partidas que más rápido crecen. En el diagrama compartido en el análisis, la adopción de GenAI alcanza al 72 % de las organizaciones, pero una parte relevante todavía escala gasto en GPUs y servicios de IA casi a ciegas.
La cuestión no es frenar la IA, sino gestionarla como infraestructura crítica. Un equipo no debería lanzar agentes, pipelines de inferencia o clusters GPU sin saber qué modelo usa cada flujo, cuántos tokens consume, qué utilización real tienen las GPUs, qué datos se envían, qué coste se asigna a cada producto y cuándo se apagan los entornos de prueba.
En los próximos meses veremos aparecer con más fuerza una disciplina cercana al “AI FinOps”: control de gasto por modelo, por equipo, por caso de uso, por token, por GPU y por cliente. Las mismas prácticas que se aplicaron al cloud tradicional tendrán que adaptarse a una capa más volátil. La diferencia es que aquí el coste unitario puede dispararse mucho más rápido.
Los entornos no productivos siguen siendo una fuga silenciosa
Uno de los puntos más fáciles de corregir sigue estando en desarrollo, pruebas, QA, staging, demos y sandboxes. Estos entornos son necesarios, pero no siempre necesitan estar encendidos 24 horas al día, siete días a la semana. Un entorno de desarrollo usado 40 horas a la semana puede estar facturando 168. Uno de staging usado solo para validaciones puntuales puede pasar la mayor parte del tiempo sin usuarios reales.
La optimización aquí no exige rehacer toda la arquitectura. En muchos casos basta con programar apagados, aplicar horarios, usar infraestructura efímera, destruir entornos tras el merge, limitar tamaños por defecto y dar a cada equipo visibilidad sobre su coste. Según los datos recogidos por Zop, aplicar disciplina horaria y control a entornos no productivos puede generar ahorros del 20 % al 40 % en ciertos bloques de infraestructura.
Los casos de éxito apuntan en esa dirección. WPP habría recuperado 2 millones de dólares en tres meses mediante una aplicación sistemática de FinOps, y otros ejemplos empresariales muestran recuperaciones relevantes en pocos meses cuando se empieza por visibilidad, atribución y acciones sobre las categorías de mayor desperdicio.
La secuencia importa. Primero hay que saber dónde está el gasto, quién lo genera y qué valor produce. Después se apaga, se redimensiona o se reserva. Optimizar sin visibilidad suele llevar a decisiones torpes: recortes donde sí había valor y tolerancia donde el gasto seguía siendo puro desperdicio.
Del ahorro al gobierno del valor
La madurez FinOps sigue siendo desigual. Muchas organizaciones ya tienen dashboards, etiquetas, revisiones periódicas y equipos dedicados. Pero pocas han llegado a un nivel realmente automatizado y preventivo. La FinOps Foundation sitúa a la mayoría de organizaciones en fases intermedias, con visibilidad parcial y optimización todavía manual. Solo una minoría trabaja con políticas automatizadas, atribución completa y control proactivo.
El cambio cultural es tan importante como el técnico. Cloud no puede seguir siendo una factura que mira solo finanzas ni una plataforma que controla solo ingeniería. Tiene que ser una conversación compartida entre producto, negocio, arquitectura, seguridad y finanzas. Cada servicio debería tener propietario, objetivo, coste esperado y métricas de valor.
La IA hará esta conversación más urgente. Si una compañía no sabe cuánto cuesta responder a una consulta, entrenar un modelo interno, mantener un agente activo o ejecutar inferencia para un cliente, tampoco sabrá si su producto de IA es rentable. La nube permitió crecer rápido. Ahora la IA está obligando a crecer con más control.
El gasto cloud de 2026 no será un problema para las empresas que inviertan mucho. Será un problema para las que inviertan sin saber qué parte de esa inversión trabaja y qué parte solo factura. El billón de dólares en cloud no es la noticia más importante. La noticia es que cerca de un tercio podría desperdiciarse si las organizaciones no revisan cómo consumen infraestructura. En la era de la IA, no gana quien más cloud compra, sino quien sabe convertirlo en rendimiento, producto y margen.
Preguntas frecuentes
¿Cuánto gasto cloud se desperdicia actualmente?
Flexera estima que el gasto cloud desperdiciado subió al 29 % en 2026, tras varios años de mejora. La IA y la complejidad de nuevos servicios IaaS y PaaS están entre los factores que explican el repunte.
¿Por qué la IA aumenta el problema de costes cloud?
Porque introduce GPUs, consumo por token, agentes con múltiples llamadas, cargas impredecibles y ventanas de contexto largas. Sin visibilidad, el gasto crece más rápido que el control.
¿Qué es FinOps?
FinOps es una práctica de gestión que une tecnología, finanzas y negocio para dar visibilidad al gasto cloud, asignarlo a responsables y optimizarlo sin frenar la innovación.
¿Dónde suelen estar las fugas más fáciles de corregir?
En entornos de desarrollo, test, staging y sandbox que permanecen encendidos fuera de horario, además de instancias sobredimensionadas, almacenamiento sin dueño y snapshots antiguos.
vía: zop.dev












