El Instituto Tecnológico de Massachusetts (MIT) ha publicado un informe de 26 páginas que retrata, con datos y matices, el estado real de la IA generativa en la empresa. La foto fija es clara: la adopción es alta, los pilotos abundan y la conversación se ha profesionalizado; sin embargo, la transformación efectiva sigue siendo minoritaria. La mayoría de las organizaciones no convierte las pruebas en resultados medibles a escala. El problema no son los modelos ni la regulación: es la forma en que se implanta, se integra y, sobre todo, se aprende con ella.
El documento, titulado The GenAI Divide – State of AI in Business 2025, identifica el patrón de fondo: herramientas que no retienen feedback, no recuerdan contexto y no mejoran con el uso terminan siendo atajos de productividad personal, pero no cambian procesos ni resultados de negocio. El hallazgo central es incómodo: sólo una minoría de iniciativas llega a producción con impacto consistente; la gran mayoría se queda en la orilla del piloto.
Adopción alta, transformación baja
El MIT constata que la IA generativa ha pasado de curiosidad a hábito profesional. La expansión de asistentes generalistas —desde redactores y analistas hasta copilotos integrados en suites ofimáticas— ha normalizado tareas como resumir documentos, explorar datos o esbozar presentaciones. En ese terreno, la aceptación es elevada y el retorno, tangible a nivel individual: menos tiempo de preparación, más rapidez en la primera versión.
El salto pendiente está en las actividades de riesgo y en los procesos críticos. Según el estudio, los usuarios adoptan IA sin problemas para lo rápido y simple, pero prefieren al humano en lo complejo y sensible. La razón de fondo es que muchas herramientas corporativas no “aprenden” del día a día: no ajustan sus respuestas con el feedback, no conservan memoria útil del contexto de la organización y no se integran con fluidez en los sistemas donde reside el valor (DMS, CRM, ERP, PLM, repositorios legales o financieros). Sin aprendizaje continuo, la IA queda encapsulada y su potencial se evapora.
Por qué los proyectos no escalan: el “learning gap”
El informe pone nombre al cuello de botella: learning gap. No es una queja sobre la potencia de los modelos ni una acusación a cumplimiento o ciberseguridad. Es el desfase entre lo que la gente espera de una herramienta inteligente —que aprenda, recuerde y se adapte— y lo que las implantaciones actuales ofrecen en la práctica.
En los pilotos que fracasan, se repiten varios síntomas:
- Calidad irregular de salida, incluso con el mismo modelo base, por falta de memoria de casos y de correcciones previas.
- Experiencia de uso pobre: flujos que obligan a copiar y pegar, autenticaciones redundantes, ausencia de citas y trazabilidad que convenzan a auditores y mandos intermedios.
- Integración mínima: conectores superficiales que no respetan ACLs, no filtran por permisos antes de buscar y no devuelven respuestas con fuentes verificables.
- Sin mejora en el tiempo: no hay métricas de aprendizaje por iteración, ni feedback loops productizados, ni versión de prompts y plantillas.
El resultado es previsible: los equipos abrazan el asistente generalista para tareas rápidas y evitan las soluciones corporativas en aquello que “cuenta” de verdad. El estudio, además, apunta al fenómeno de shadow AI: mientras una parte de las organizaciones no ha formalizado sus suscripciones, un porcentaje muy alto de profesionales usa a diario IA personal para trabajar. Esa brecha entre lo que la empresa compra y lo que la gente usa es, para el MIT, el mejor termómetro de la usabilidad real y de la calidad percibida.
Dónde sí hay ROI: lecciones de quienes escalan
El informe identifica una minoría de casos con impacto claro. El guion ganador se repite con pocas variaciones:
- Caso estrecho, dolor real. En lugar de abordar “la IA para todo”, las organizaciones líderes empiezan por un subproceso con fricción medible (ciclo de facturación, conciliación documental, KYC, respuestas de soporte con normativa, revisión de contratos). El valor se define antes de construir.
- Memoria persistente y aprendizaje. Las soluciones efectivas recuerdan: conservan contexto útil por usuario y por equipo, registran feedback para reentrenar prompts, plantillas y rutinas, y la mejora se mide en producción.
- Integración profunda. El sistema busca en fuentes internas con ACLs y devuelve respuestas con citas y enlaces verificables. La IA se pega al flujo (CRM, ERP, DMS) en lugar de girar alrededor de una interfaz aislada.
- Gobierno con guardarraíles. Policies de entrada y salida (DLP/PII), auditoría, logging del “quién, qué y con qué” y catálogos claros de casos permitidos y vetados. La seguridad evita sustos sin frenar la adopción.
- Modelo de compra orientado a resultados. Las compañías que escalan “compran IA” como contratarían BPO con SLA, no como otro SaaS: exigen customización, mejora en el tiempo, límites claros de datos y pagos vinculados a resultados operativos (tiempo de ciclo, tasa de aciertos, coste por caso).
El MIT observa, además, que la alianza con especialistas externos duplica la probabilidad de éxito frente al desarrollo 100 % interno. La receta combinada —comprar para llegar a valor y construir sólo donde hay ventaja específica— acelera el time-to-value y reduce el riesgo de estancarse en pilotos interminables.
El mapa sectorial: dónde avanza primero
El impacto desigual por industrias no sorprende. Tecnología, Media y algunos servicios profesionales encabezan la lista por familiaridad digital y disponibilidad de datos etiquetados. Finanzas y seguros progresan en dominios como prevención de fraude, automatización documental y reporting regulatorio. Retail y manufactura avanzan más despacio por la complejidad de la cadena física y la fragmentación de datos, aunque el MIT detecta puntos de inflexión en back-office (compras, atención al cliente, documentación técnica) donde el retorno es más rápido que en iniciativas comerciales vistosas.
La conclusión transversal es pragmática: los mayores ahorros aparecen donde había externalizaciones o tareas intensivas en papel. Sustituir parte del BPO con IA controlada, automatizar tareas repetitivas de back-office y recortar gasto en servicios externos ofrece paybacks más cortos que aventuras de marketing espectaculares pero difíciles de atribuir.
Cómo cerrar la brecha tecnología–negocio (guía en 12 acciones)
1) Diagnóstico honesto. Inventario de casos de uso en marcha y mapa de datos sensibles. Separar productividad individual de iniciativas que tocan proceso y cliente.
2) Portafolio con impacto. Priorizar 3–5 subprocesos con fricción alta y métricas claras (tiempo de ciclo, costes, calidad).
3) Objetivos y métricas. Fijar KPIs de negocio y SLOs de la plataforma (latencia, uptime, calidad con muestras patrón).
4) Memoria y feedback. Diseñar desde el principio memoria persistente, golden sets y feedback loops que actualicen prompts, plantillas y rutinas.
5) Integración con permisos. Conectores que filtran por ACLs antes de buscar y devuelven respuestas con citas y huella de fuentes.
6) Seguridad operativa. DLP/PII en entrada y salida, auditoría firmada del “pregunta → fuente → respuesta”, y retención mínima necesaria.
7) Modelo bimodal. SaaS para lo genérico y de bajo riesgo; pasarela privada (on-prem o cloud privado) para dominios y documentos sensibles.
8) Compra orientada a outcomes. Contratos con SLA de mejora y pagos vinculados a resultados operativos; evitar licencias que incentivan consumo sin responsabilidad.
9) Tiempo protegido para aprender. Formación aplicada y espacios de práctica por función. Sin tiempo, hay “atrofia” de habilidades.
10) Gobernanza ligera y útil. Catálogo de casos permitidos, proceso rápido para altas/bajas, comité de excepción con plazos cerrados.
11) Observabilidad. Paneles con TTFT, tokens/seg, ratio de aciertos en golden sets, uso por área, y coste por interacción (interno vs externo).
12) Iteración disciplinada. Cadencia mensual de revisión: qué mejora, qué se sunsetea, dónde se reinvierte el presupuesto.
Un apunte sobre shadow AI: brújula y oportunidad
El MIT sugiere leer la IA en la sombra como un mapa de demanda real. Allí donde la gente usa asistentes externos a diario, suele existir un caso útil no cubierto. Formalizar esos usos, con seguridad y gobernanza, ofrece un atajo para priorizar lo que tiene tracción y dejar ir lo accesorio. Es más sencillo canalizar lo que ya funciona que imponer una solución menos usable porque “es la oficial”.
2026: del hábito a la disciplina (y a la escala)
El informe mira a 2026 como el año de la performance at scale: menos demos, más procesos reconfigurados y presupuestos reasignados según retorno demostrado. La ventana para fijar proveedores y patrones —pasarela privada, stack de RAG, criterios de compra— no será eterna. Cuanto más aprende un sistema, mayores son los costes de cambio. El mejor momento para definir la arquitectura y el modelo operativo es ahora.
La tesis final es inequívoca: la adopción ya no es la noticia. Lo relevante es qué aprende el sistema, con qué datos, cómo lo integra y cómo lo mide la organización. Ahí se separan los que repiten pilotos de los que convierten la IA en ventaja competitiva.
Preguntas frecuentes
¿Cómo medir el ROI de la IA generativa de forma creíble?
Conviene combinar métricas de proceso (tiempo de ciclo, tasa de aciertos, coste por caso) con muestras patrón (golden sets) que permitan medir calidad y mejora por iteración. A nivel de plataforma, vigilar latencia (TTFT), ratio de citas útiles y coste por interacción (interno vs externo).
¿Qué diferencia a un piloto de un despliegue con impacto?
Tres elementos: memoria persistente y feedback (la herramienta mejora), integración con fuentes internas respetando ACLs (respuestas con citas) y gobernanza (DLP/PII, auditoría y permisos). Sin estas bases, el piloto no escala.
¿Qué es la shadow AI y cómo gestionarla?
Es el uso de IA por parte de empleados fuera del paraguas oficial. El informe recomienda tratarla como señal de demanda: identificar los casos que funcionan, formalizarlos con seguridad y datos controlados, y retirar el resto. Es, además, un argumento para priorizar la pasarela privada en dominios sensibles.
¿Qué casos priorizar para un “quick win” con impacto?
Procesos repetitivos de back-office (automación documental, conciliación, reporting, soporte de primer nivel) suelen ofrecer paybacks más rápidos que iniciativas comerciales difusas. Si además se sustituye parte del BPO o gasto en agencias, el retorno se acelera.
Fuentes
- MIT – The GenAI Divide. State of AI in Business 2025 (informe, 26 páginas).




