La confianza en la IA generativa se dispara, pero las “barreras de seguridad” no acompañan: sólo el 40 % invierte en hacer la IA confiable, según un estudio de SAS e IDC

Las empresas confían cada vez más en la IA generativa y en los agentes de IA, pero siguen sin dotarlos de los salvavidas que exigen los manuales de “IA responsable”: gobernanza, explicabilidad y políticas éticas. Es la principal conclusión del informe IDC Data and AI Impact Report: The Trust Imperative, encargado por SAS y presentado esta semana, tras encuestar a 2.375 directivos de TI y negocio en Norteamérica, Latinoamérica, Europa, Oriente Medio y África y Asia-Pacífico.

Los resultados dibujan una paradoja: mientras casi 8 de cada 10 organizaciones (78 %) afirman confiar plenamente en la IA, sólo el 40 % está invirtiendo de forma explícita en que sus sistemas sean demostrablemente confiables (gobernanza, explicabilidad y salvaguardas éticas). A la vez, las compañías que sí priorizan esa IA confiable son 1,6 veces más proclives a duplicar el ROI de sus proyectos, frente a quienes la tratan como una casilla más en la lista de tareas. O, dicho de forma cruda: ignorar la confianza sale caro.

“Nuestro estudio muestra una contradicción: las formas de IA con interactividad humana y familiaridad social generan la mayor confianza, independientemente de su fiabilidad o exactitud real”, explica Kathy Lange, directora de investigación de IA y Automatización en IDC. “Como proveedores y usuarios debemos preguntarnos: ¿la GenAI es de verdad confiable o sólo ‘parece’ confiable? ¿Y están los líderes aplicando los guardarraíles necesarios a esta tecnología emergente?”


GenAI, la más “querida”; la IA tradicional, la menos

El informe ordena la confianza por tecnologías y destapa otro giro llamativo: las emergentes obtienen mejor nota que las asentadas.

  • IA generativa: 48 % declara “confianza total”.
  • IA agentiva (agentes de IA): 33 %.
  • IA tradicional (aprendizaje automático clásico): 18 %.

Que la IA tradicional sea la menos confiable sorprende, porque es la más probada y explicable de todas. IDC y SAS añaden, además, que GenAI ya supera a la IA tradicional en visibilidad y uso (81 % frente a 66 %).

La confianza no es ciega: los encuestados expresan inquietudes claras sobre privacidad de datos (62 %), transparencia y explicabilidad (57 %) y uso ético (56 %). Aun así, el impulso hacia la IA generativa no se traduce, de momento, en un esfuerzo equivalente por implantar controles.


“Quantum AI”: confianza por delante de la realidad

El trabajo también toma el pulso a quantum AI, un terreno donde las aplicaciones reales aún están en pañales. Casi un tercio de los decisores afirma estar familiarizado con la tecnología y un 26 % dice confiar plenamente en ella. Es otra muestra de que la percepción y la promesa avanzan más rápido que la madurez técnica, algo que, para IDC, exige prudencia: si se confunde novedad con confiabilidad, el riesgo es invertir antes de que existan los cimientos.


El gran agujero: confianza “de palabra” sin guardarraíles reales

El estudio radiografía un desajuste de base: la confianza declarada y la confiabilidad demostrable no van de la mano. Aunque 78 % dice confiar plenamente en la IA, sólo 40 % ha invertido en hacerla confiable con gobernanza, explicabilidad y salvaguardas éticas. Y cuando IDC pregunta por prioridades en la operacionalización de la IA, la respuesta es todavía más contundente:

  • Sólo 2 % sitúa el marco de gobernanza de IA entre sus tres prioridades.
  • Menos del 10 % declara estar desarrollando una política de IA responsable.

La consecuencia es tangible: quienes sí invierten en confianza (los “líderes en IA confiable”) tienen 1,6 veces más probabilidad de doblar el ROI de sus proyectos. La moraleja parece obvia: sin guardarraíles, la IA no escala —al menos, no con retorno—.

Bryan Harris, CTO de SAS, lo resume así: “Para el bien de la sociedad, los negocios y los empleados, la confianza en la IA es imperativa. Para lograrla hay que aumentar la tasa de éxito de las implantaciones, revisar críticamente los resultados y empoderar a la plantilla con IA”.


Donde falla la ejecución: datos, gobernanza y talento

El informe sitúa tres obstáculos como los mayores frenos de las implantaciones:

  1. Fundaciones de datos débiles (49 %): entornos no centralizados o clouds poco optimizadas que dificultan un dato único y accesible.
  2. Pobre gobernanza (44 %): procesos insuficientes para privacidad, linaje, calidad y cumplimiento.
  3. Falta de especialistas (41 %): escasez de perfiles con mezcla de datos, modelo y negocio.

A la hora de gestionar los datos de la IA, el problema n.º 1 es acceder a las fuentes relevantes (58 %). Le siguen privacidad y cumplimiento (49 %) y calidad de datos (46 %). Nada nuevo… salvo por lo perdurable: sin estrategia de datos, la IA no despega.


Por qué se confía más en lo “humanoide” (aunque no sea más fiable)

IDC sugiere un sesgo de percepción: cuanto más conversacional y humano parece un sistema, más fácil es confiar en él. Esa “familiaridad social” —propia de chatbots y agentes— eleva la confianza aun cuando la tecnología no sea necesariamente más exacta ni más explicable. El riesgo es evidente: decisiones críticas apoyadas en modelos opacos y sin los controles que se exigirían a sistemas “menos carismáticos” pero mejor entendidos (la IA tradicional).


Qué pueden hacer las organizaciones (una lista breve y accionable)

1) Conectar confianza con dinero.
El dato clave del informe lo justifica: los líderes en IA confiable tienen 1,6× más probabilidad de duplicar el ROI. Traducir “gobernanza” a cashflow ayuda a priorizar.

2) Gobernanza mínima viable (y que funcione).

  • Marco de IA: roles (propietario de modelo, de datos, de negocio), MLOps con monitorización y alertas, A/B, rollback.
  • Política responsable: privacidad, explicabilidad por caso de uso, evaluación de sesgos, uso de datos (consentimiento, conservación, borrado).
  • Comité mixto TI–Negocio–Legal, con decisiones trazables.

3) Fundaciones de datos antes que nuevas POCs.

  • Acceso y catálogo de datos (API/virtualización), calidad y linaje.
  • Privacidad desde el diseño: minimización de datos, pseudonymization, controles de acceso.
  • Cloud optimizada: reducir silos y costes “ocultos” de movimiento de datos.

4) Explicabilidad pragmática.
No todo requiere Shapley; pero sí justificaciones legibles para audiencias (negocio, regulación). Para GenAI, trazabilidad de fuentes y políticas de uso de contenido generado.

5) Personas en el bucle (y formadas).
Revisión humana crítica donde el riesgo lo pida, guía de “cómo comprobar” resultados y responsabilidades claras. La “IA centrada en el humano” es también un proceso.

6) Talento: formar “traductores” de IA (datos + negocio) y cubrir los huecos críticos. Programas de upskilling y bots con guardarraíles que aumenten, no sustituyan, la pericia.


Un mapa por regiones… con un patrón global

Aunque el sondeo es global, IDC detecta la misma disonancia en todas las regiones: mucha confianza declarada y poca inversión en volver la IA demostrablemente confiable. Las diferencias son de grado (por regulación, madurez digital o presión competitiva), pero el mensaje se repite: la gobernanza se ve como un coste, no como un multiplicador de valor.


Qué significa para proveedores y equipos de datos

Para proveedores, la conclusión es comercial: si la confianza se traduce en ROI, vender “IA responsable de serie” (gobernanza embebida, tooling de monitorización, guardrails de GenAI) acerca al cliente al éxito. “La IA es confiable” no es un claim; es telemetría, evidencias y respuestas cuando algo se desvía.

Para equipos de datos, la prioridad vuelve al fundacional: acceso, calidad, linaje y gobierno. Sin ello, la IA se queda en pilotos caros, difíciles de escalar y con riesgo reputacional.


Limitaciones y contexto del estudio

  • Fuente: encuesta global con 2.375 participantes de TI y negocio (equilibrados) en cinco regiones.
  • Naturaleza: percepción corporativa; no audita sistemas reales ni valida métricas técnicas de modelos.
  • Patrocinio: informe encargado por SAS; metodología y resultados publicados por IDC.

Aun con estas cautelas, el patrón es consistente con la conversación sectorial: el boom de GenAI ha adelantado la adopción y la percepción de valor, pero no al mismo ritmo la infraestructura de confianza.


Conclusión: la confianza no es un sentimiento, es un sistema

El estudio deja una idea sencilla. Confiar en la IA no la hace confiable; invertir en gobernanza, explicabilidad, datos y personas . Quienes lo hacen —dice IDC— cobran el doble. Y quienes no… se quedan con la parte más cara de la IA: proyectos que no escalan, riesgos que se acumulan y ROI que no llega.

La explosión de IA generativa y agentes obliga a elegir: contexto y guardarraíles, o velocidad sin frenos. La primera opción parece menos épica, pero —si se atiende a las cifras— es la que paga.


Preguntas frecuentes

¿Qué es “IA confiable” o “IA responsable” y cómo empezar en una empresa?
Es la IA con gobernanza (roles, procesos, monitorización), explicabilidad (justificaciones adecuadas a cada caso), políticas éticas (privacidad, sesgos, uso de datos) y personas en el bucle cuando el riesgo lo exige. Un inicio realista: marco de gobernanza, catálogo de datos con linaje, MLOps con alertas y una política de GenAI.

¿Por qué la IA generativa inspira más confianza que la IA tradicional si esta última es más estable y explicable?
Por familiaridad: la interacción conversacional “suena” humana y aumenta la percepción de confianza. El problema es confundir “me fío” con “es fiable”. El estudio pide guardarraíles aunque el interfaz sea agradable.

¿Qué impacto tiene invertir en gobernanza, explicabilidad y ética sobre el ROI?
Según IDC, las organizaciones que priorizan IA confiable son 1,6 veces más propensas a duplicar el ROI de sus proyectos. La inversión en confianza actúa como acelerador, no como lastre.

¿Cuáles son los mayores obstáculos para escalar IA con retorno?
Tres: fundaciones de datos débiles (49 %), gobernanza insuficiente (44 %) y escasez de talento (41 %). A la hora de gestionar datos, lo más citado es acceso a fuentes relevantes (58 %), seguido de privacidad/cumplimiento (49 %) y calidad (46 %).

vía: sas

Scroll al inicio