La Inteligencia Artificial generativa seguirá abaratándose de forma drástica durante esta década, pero eso no significa que las empresas vayan a disfrutar automáticamente de una IA avanzada más asequible. Esa es, en el fondo, la advertencia que deja una nueva previsión de Gartner, que calcula que en 2030 ejecutar inferencia sobre un modelo de lenguaje de 1 billón de parámetros costará a los proveedores de IA generativa más de un 90 % menos que en 2025.
A primera vista, el dato parece una gran noticia para todo el sector. Menores costes de inferencia suelen asociarse a servicios más baratos, mayor acceso a capacidades avanzadas y una aceleración de la adopción en empresas y consumidores. Sin embargo, Gartner introduce un matiz decisivo: esa caída del coste por token no se traducirá necesariamente en una democratización real de la “inteligencia de frontera”. Es decir, la IA más avanzada seguirá siendo cara de operar en muchos escenarios, incluso aunque el precio unitario de computación caiga con fuerza.
La consultora sitúa varias causas detrás de esa mejora de eficiencia. Entre ellas menciona avances en semiconductores, mejoras de infraestructura, innovaciones en el diseño de modelos, una mayor utilización de chips, el uso creciente de silicio especializado en inferencia y la aplicación de dispositivos edge en determinados casos de uso. La combinación de esos factores debería permitir que los grandes modelos de 2030 sean hasta 100 veces más eficientes en costes que los primeros modelos de tamaño comparable desarrollados en 2022.
El mensaje, por tanto, no es que la IA vaya a frenarse por el coste, sino que va a cambiar profundamente la economía de su uso. Los proveedores podrán ejecutar modelos mucho más potentes de forma más eficiente, pero los clientes empresariales tendrán que aprender a usarlos con más criterio, porque la demanda de cómputo crecerá al mismo tiempo que baja el precio por unidad.
El token se abarata, pero el consumo se dispara
Aquí está la clave de la previsión de Gartner. La consultora subraya que los menores costes unitarios no se trasladarán íntegramente a los clientes empresariales. Y además introduce una idea todavía más importante: los sistemas más avanzados consumirán muchísimos más tokens que las aplicaciones actuales.
Según Gartner, los modelos agénticos pueden requerir entre 5 y 30 veces más tokens por tarea que un chatbot generativo estándar. Eso tiene lógica si se piensa en cómo funciona un agente de IA frente a una simple interfaz conversacional. Un chatbot responde a una pregunta. Un agente, en cambio, puede planificar varios pasos, consultar herramientas, revisar contexto, tomar decisiones parciales, reformular instrucciones y ejecutar acciones adicionales. Cada una de esas operaciones genera más consumo.
En otras palabras, aunque el coste del token caiga, la factura final puede subir si cada tarea necesita muchos más tokens que antes. Y ese es precisamente el escenario que dibuja Gartner: el descenso del coste por unidad permitirá habilitar capacidades más sofisticadas, pero esas mismas capacidades empujarán una demanda de inferencia muy superior. El resultado es paradójico, pero bastante plausible: la IA será más barata por dentro, aunque usarla a gran escala podría seguir encareciéndose.
La IA barata no será lo mismo que la IA avanzada
Gartner lo resume con bastante claridad: los directores de producto no deberían confundir la deflación de los “tokens commodity” con una democratización del razonamiento avanzado. Es una advertencia relevante en un momento en que muchas empresas parecen asumir que el simple paso del tiempo resolverá por sí solo el problema del coste de la IA.
Lo que previsiblemente ocurrirá es otra cosa: habrá una capa de inteligencia cada vez más barata, casi comoditizada, útil para tareas frecuentes, repetitivas y de bajo margen. Pero la inferencia más costosa, ligada a modelos de frontera y a procesos de razonamiento complejos, seguirá siendo un recurso escaso que habrá que reservar para usos concretos y de alto valor.
Eso obliga a replantear la arquitectura de producto y de plataforma. No bastará con conectar todas las tareas a un gran modelo y dejar que procese sin filtro. Gartner plantea que el valor estará en las plataformas capaces de orquestar cargas de trabajo entre distintos tipos de modelos. Las tareas rutinarias y de alta frecuencia deberían dirigirse a modelos pequeños o especializados por dominio, mucho más eficientes en coste. Los modelos de frontera, más caros, tendrían que reservarse para razonamiento complejo, operaciones de alto margen o situaciones donde realmente aporten una ventaja diferencial.
Una previsión que afecta tanto a proveedores como a clientes
La lectura empresarial de esta previsión va mucho más allá del coste técnico. Para los proveedores de IA, la caída de costes de inferencia será positiva, pero también intensificará la competencia. Si ejecutar modelos se vuelve mucho más eficiente, el mercado podría ver una mayor presión hacia la comoditización en capas básicas de servicio.
Para las empresas usuarias, en cambio, el reto será distinto. El problema no será solo pagar menos por token, sino construir productos y procesos que no desperdicien cómputo. Eso significa revisar prompts, flujos agénticos, número de pasos por tarea, reutilización de contexto, selección de modelos y control de costes de inferencia en tiempo real. Quien use tokens baratos para tapar malas decisiones de arquitectura podría descubrir demasiado tarde que la escala agéntica no es sostenible.
Ese es probablemente el mensaje más útil de Gartner: el futuro de la IA no se decidirá solo por la potencia de los modelos, sino por la eficiencia con la que cada organización sepa combinarlos. La IA de 2030 será más barata, sí. Pero también será más exigente, más intensiva en consumo y mucho más dependiente de una buena ingeniería de producto y de plataforma.
Preguntas frecuentes
¿Qué prevé Gartner exactamente para 2030?
Gartner prevé que en 2030 ejecutar inferencia sobre un modelo de lenguaje de 1 billón de parámetros costará a los proveedores de IA generativa más de un 90 % menos que en 2025.
¿Eso significa que la IA avanzada será barata para las empresas?
No necesariamente. Gartner advierte que esa bajada de costes no se trasladará por completo a los clientes empresariales y que los modelos agénticos consumirán muchos más tokens por tarea.
¿Cuántos más tokens pueden necesitar los modelos agénticos?
Según Gartner, entre 5 y 30 veces más tokens por tarea que un chatbot generativo estándar.
¿Qué deberían hacer las empresas ante esta tendencia?
Diseñar arquitecturas que combinen varios tipos de modelos: usar modelos pequeños o especializados para tareas rutinarias y reservar los modelos más avanzados para procesos complejos o de alto valor.
vía: gartner







