La inferencia de Inteligencia Artificial ya es una carga crítica para las empresas

La Inteligencia Artificial ha dejado de ser un experimento aislado dentro de los laboratorios corporativos. Según el informe 2026 State of Application Strategy de F5, el 78 % de las organizaciones ya ejecuta sus propios procesos de inferencia, es decir, utiliza modelos entrenados para generar respuestas, predicciones o acciones dentro de operaciones reales de negocio.

El dato marca un cambio relevante. Durante años, buena parte del debate empresarial se centró en entrenar modelos, probar asistentes internos o explorar casos de uso. Ahora el foco se desplaza hacia algo más exigente: ejecutar esos modelos de forma fiable, segura y constante en entornos híbridos, multicloud y con aplicaciones distribuidas. Para F5, la inferencia se ha convertido en una carga de producción que necesita el mismo rigor operativo que cualquier sistema crítico.

El informe, basado en las respuestas de más de 1.100 responsables de tecnología y seguridad de organizaciones globales, muestra que las empresas coordinan de media siete modelos de Inteligencia Artificial en producción. Además, el 77 % afirma que la inferencia ya es su actividad dominante en este ámbito, por delante de la creación o el entrenamiento de modelos.

La empresa quiere más control sobre sus modelos

Uno de los puntos más llamativos del informe es el limitado peso de las estrategias basadas solo en servicios públicos de Inteligencia Artificial. Según F5, apenas el 8 % de las organizaciones depende exclusivamente de servicios públicos de AI-as-a-Service. La mayoría está construyendo carteras diversificadas de modelos, combinando distintas opciones según coste, precisión, disponibilidad, cumplimiento normativo y necesidades internas.

Este movimiento refleja una preocupación creciente por el control. Cuando la Inteligencia Artificial entra en procesos sensibles, las empresas necesitan saber dónde se ejecutan los modelos, qué datos procesan, qué permisos tienen y cómo se aplican las políticas de seguridad. La comodidad de consumir un servicio externo puede no ser suficiente cuando entran en juego datos confidenciales, propiedad intelectual, obligaciones regulatorias o procesos operativos que no pueden fallar.

Kunal Anand, director de producto de F5, resume el cambio de etapa al señalar que la pregunta ya no es si las compañías usarán Inteligencia Artificial, sino si podrán ejecutarla de forma fiable, segura y a escala. La entrega de Inteligencia Artificial se convierte así en un problema de gestión de tráfico, mientras que su seguridad pasa a ser un asunto de gobernanza y control.

El híbrido multicloud ya es el escenario habitual

La expansión de la Inteligencia Artificial llega sobre una base tecnológica cada vez más compleja. El 93 % de las organizaciones encuestadas trabaja ya en entornos multicloud y el 86 % distribuye aplicaciones entre instalaciones propias, nube pública y colocation. Esta realidad complica la entrega, la seguridad y la observabilidad de las aplicaciones, y ahora también de los modelos de Inteligencia Artificial.

Gestionar varios modelos en distintos entornos exige capacidades de enrutamiento, políticas de uso, mecanismos de respaldo y controles para decidir qué modelo responde, dónde se procesa cada petición y cómo se mantiene la disponibilidad. No se trata solo de tener infraestructura suficiente. También hay que aplicar reglas coherentes en todos los puntos donde se ejecutan aplicaciones, APIs y cargas de inferencia.

El informe señala que las estrategias basadas en soluciones puntuales pueden quedarse cortas. Una empresa puede resolver un problema concreto de rendimiento, seguridad o despliegue, pero si no cuenta con una visión unificada, la complejidad acaba creciendo. En el caso de la Inteligencia Artificial, esa falta de control puede traducirse en costes imprevisibles, fallos de escalado o exposición a riesgos que no estaban contemplados en la fase de pruebas.

La seguridad se desplaza hacia prompts, tokens e identidades

F5 también advierte de que la seguridad de la Inteligencia Artificial requiere nuevos puntos de control. El 88 % de las organizaciones afirma haber afrontado ya desafíos de seguridad relacionados con esta tecnología, mientras que el 98 % se prepara para la llegada de agentes de Inteligencia Artificial. Estos sistemas autónomos necesitarán identidades, permisos y límites de actuación similares a los de los usuarios humanos o las aplicaciones tradicionales.

El perímetro ya no se limita a servidores, redes o APIs. Los prompts, los tokens y las identidades pasan a formar parte de la superficie que debe protegerse. Casi el 29 % de las organizaciones identifica la capa de prompts como el principal mecanismo de entrega, mientras que el 23 % sitúa la capa de tokens como prioritaria para entrega y seguridad.

Este cambio tiene consecuencias prácticas. Controlar prompts y tokens permite gestionar costes, limitar abusos, mejorar el rendimiento y reducir riesgos de fuga de información o uso indebido. También obliga a los equipos de seguridad a entender mejor cómo funcionan los modelos y cómo se integran en aplicaciones reales.

La madurez en Inteligencia Artificial empieza a parecerse, cada vez más, a una medida de resiliencia operativa. Las organizaciones que inviertan en observabilidad, autenticación, gobernanza y control unificado estarán mejor preparadas para convertir los modelos en una parte estable de su negocio. Las que traten la inferencia como una simple extensión experimental pueden encontrarse con problemas de escala, seguridad y costes cuando el uso crezca.

Preguntas frecuentes

¿Qué significa ejecutar inferencia de Inteligencia Artificial?
Significa utilizar un modelo ya entrenado para generar respuestas, predicciones, clasificaciones o acciones dentro de una aplicación o proceso de negocio.

¿Por qué las empresas prefieren gestionar su propia inferencia?
Porque buscan más control sobre datos, costes, seguridad, cumplimiento normativo y disponibilidad, especialmente cuando la Inteligencia Artificial se usa en operaciones críticas.

¿Qué retos plantea la Inteligencia Artificial agéntica?
Los agentes de Inteligencia Artificial pueden actuar de forma autónoma, por lo que necesitan identidades, permisos, límites claros, supervisión y controles de seguridad adaptados a prompts, tokens y APIs.

Fuentes:
F5, 2026 State of Application Strategy Report.

Scroll al inicio