Confluent predice el futuro de la IA y el streaming de datos para 2026

En 2025 ya se apuntaba a que las plataformas de data streaming (DSP) estaban cerca de un punto de inflexión: dejarían atrás la fase de adopción temprana para consolidarse como un motor cada vez más habitual de diferenciación competitiva. Aun así, se advertía de un freno posible: la cultura organizativa tradicional, que podía ralentizar su despliegue en determinadas compañías.

Doce meses después, ese pronóstico se ha cumplido en líneas generales, aunque el entorno ha cambiado incluso más deprisa de lo que anticipaban los escenarios más optimistas. El giro más determinante ha sido la velocidad —y la escala— con la que se ha extendido la Inteligencia Artificial. Lo que antes eran pilotos se ha transformado en cientos de casos de uso en producción, capaces de orquestar procesos de varias etapas: desde la prevención del fraude hasta la atención al cliente. Y eso, inevitablemente, ha elevado el listón de los datos que lo hacen posible.

“La resistencia cultural no ha desaparecido, pero la presión competitiva está acelerando su desgaste. Los resultados medibles han desplazado el foco desde las expectativas teóricas y los equipos de datos han evolucionado en consecuencia. Hoy, los ingenieros de streaming invierten menos esfuerzo en tareas de infraestructura y más en gobernanza en flujo, en crear productos de datos reutilizables y en desarrollar analítica que reduzca latencias y costes”, afirma Francisco Molero, Country Leader de Confluent en España y Portugal.

De acuerdo con Molero, de cara a 2026, las previsiones apuntan a un avance más pragmático: IA agéntica basada en datos en tiempo real, un streaming consolidado como columna vertebral siempre activa y una organización de datos rediseñada para transformar señales en tiempo real en valor duradero y medible.

La producción de IA agéntica se acelerará

Si 2025 fue el año de los asistentes inteligentes, 2026 será el año de los agentes capaces de llevar las tareas hasta su finalización. Se percibe un cambio claro desde un modelo de “sugerir y escalar” hacia uno de “decidir y ejecutar”, con sistemas de IA que clasifican incidentes, optimizan procesos de cumplimiento, evalúan riesgos y resuelven solicitudes de servicio.

Este progreso exige una mayor disciplina en torno a la calidad de los datos. Los agentes de IA necesitan un contexto continuo en lugar de datos procesados en lotes del día anterior. En paralelo, requieren marcos de políticas y trazabilidad para garantizar el cumplimiento desde el inicio, así como un circuito de retroalimentación que permita que cada decisión contribuya a su aprendizaje o active una verificación humana cuando el impacto lo justifique.

Los equipos comenzarán a gestionar a los agentes como si fueran productos, evaluándolos su desempeño mediante indicadores clave de rendimiento empresarial, como tiempos de resolución, pérdidas evitadas o niveles de satisfacción del cliente. Cuando se implementa correctamente, la experiencia con IA en la empresa deja de ser algo meramente espectacular y pasa a centrarse en resultados que pueden auditarse, explicarse y mejorarse.

Los agentes que prosperen no serán necesariamente los más nuevos ni los más llamativos, sino aquellos basados en señales vivas y confiables, con orígenes claros. En este contexto, un modelo modesto respaldado por datos actuales y de alta calidad ofrece mucho más valor que un modelo de última generación con datos insuficientes.

Las compañías contratarán a más ingenieros de datos 

A medida que los agentes empiecen a integrarse en los equipos de IT, el desempeño de los ingenieros de datos en tiempo real dejará de medirse por la disponibilidad de los clústeres o por la cantidad de conectores configurados. En cambio, su aportación se evaluará por la calidad de los productos de datos que publiquen en flujo, por la gobernanza y trazabilidad incorporadas desde el inicio y por la reducción de tiempos de ciclo que logren para el resto de la organización.

El conjunto de talento se ampliará. Ya no será necesario contar con equipos completos de especialistas en sistemas distribuidos para generar un impacto significativo. Si los equipos saben escribir SQL, podrán trabajar directamente “en el flujo”, acercando la lógica de negocio a los eventos, construyendo una sola vez y permitiendo que el resto del entorno simplemente se suscriba. Esta tendencia se refleja en la cantidad de organizaciones  que prevén incorporar a más ingenieros de datos con el objetivo de fortalecer su capacidad para adoptar, utilizar y gestionar la IA.

En el plano organizativo, las fronteras entre los equipos operativos y analíticos se irán difuminando a medida que los flujos compartidos se conviertan en el estándar de colaboración. El rol del ingeniero de datos actuará como un multiplicador: un solo flujo de alta calidad podrá sustituir múltiples canalizaciones, reducir costos de almacenamiento y conciliación y proporcionar a los agentes de IA el contexto en vivo que realmente necesitan.

El sector público empezará a adoptar el tiempo real  

El próximo año se espera que gobiernos, organismos reguladores y fuerzas de defensa aumenten la velocidad en áreas donde cada minuto cuenta, especialmente en cumplimiento fiscal, elegibilidad para beneficios, detección de fraudes, operaciones fronterizas y supervisión de mercados. El patrón es el mismo que se ha observado en el sector privado: sustituir los procesos por lotes periódicos por un procesamiento continuo para que las decisiones reflejen la información actual y no la de la semana pasada.

¿Cuáles son los factores que hacen que este momento sea diferente? En primer lugar, la presión política: se pide a los organismos públicos que hagan más con menos, al mismo tiempo que mejoran la transparencia. En segundo lugar, la infraestructura tecnológica está lista: se ha demostrado que el streaming y los formatos abiertos permiten reemplazar flujos de trabajo heredados de la era de los mainframes sin perder la capacidad de auditoría.

En este contexto, los ciudadanos tendrán resultados más rápidos y justos porque las señales son actuales y las reglas se aplican de manera consistente. Los reguladores podrán demostrar sus acciones sin necesidad de reconstruir un historial retrospectivo en papel. Y a medida que estos programas se implementen, redefinirán las expectativas fuera del sector público: cuando la experiencia básica del gobierno sea “en tiempo real y explicable”, se eleva el estándar para todos los demás.

La flexibilidad multi-cloud pasará de ser una estrategia de IT a una estrategia de negocio

Eventos recientes han demostrado a los líderes que depender de un único proveedor de nube puede ser arriesgado, ya sea por interrupciones, variaciones de precios o cambios en políticas. En las últimas semanas, casi todas las conversaciones con clientes han girado en torno a una pregunta: ¿cómo mantener el control si ocurre algún imprevisto?. Para muchas organizaciones, esto también plantea cuestiones adicionales sobre la soberanía de los datos y cómo garantizar que la información crítica permanezca donde la legislación lo exige.

En 2026, más organizaciones incorporarán el multi-cloud como parte central de su plan de resiliencia. Esto implica elegir tecnologías capaces de operar de manera fluida entre distintos proveedores de nube, de modo que si los costos aumentan, una región falla o las regulaciones cambian, puedan trasladar o escalar operaciones sin interrupciones.

Esto deja de ser una simple preferencia de IT. Los directorios ahora solicitan pruebas de que sus sistemas de datos e IA puedan seguir funcionando incluso si un proveedor falla. La capacidad de cambiar de nube, balancear cargas de trabajo o mantener el flujo de datos entre plataformas se considerará como un indicador de madurez y competitividad de cara al futuro.

La gestión externalizada como nuevo estándar 

Ejecutar internamente pilas complejas de streaming resulta cada vez más difícil de justificar. Las habilidades especializadas son escasas, la carga operativa es alta y cada hora dedicada a ajustar clústeres es una hora que no se invierte en mejorar los datos que impulsan el negocio. Para muchos equipos que gestionan Kafka por sí mismos, el mantenimiento ha empezado a superar el valor obtenido, especialmente a medida que crecen las demandas de streaming.

En 2026, se prevé que más equipos opten de manera decidida por plataformas de streaming gestionadas y traten el streaming como cualquier otro servicio esencial: confiable, seguro y responsabilidad de un tercero. Cuando la mayor parte del trabajo pesado está externalizada, los mejores profesionales se concentran en la gobernanza en flujo, en productos de datos reutilizables y en la lógica que acorta los tiempos de ciclo y reduce costos. En otras palabras, trabajan donde realmente importa.

El resultado es una entrega más rápida y con menos imprevistos. Dicho de manera directa, si la ventaja competitiva depende de lo que se hace con los datos y no de supervisar la infraestructura, la gestión externalizada se convierte en la opción más racional.

Scroll al inicio