Un nuevo estudio global revela que, aunque la mayoría de los empleados se sienten cómodos trabajando junto a agentes de inteligencia artificial, la aceptación se desploma cuando se plantea que estas herramientas asuman funciones de liderazgo o toma de decisiones críticas.
Una revolución que avanza con cautela
Los agentes de IA —sistemas capaces de realizar tareas, tomar decisiones e interactuar de forma autónoma dentro de un ámbito definido— están ganando terreno en las empresas de todo el mundo. Según la investigación de Workday, el 82 % de las organizaciones ya está ampliando su uso y un 88 % cree que estas herramientas reducirán su carga de trabajo gracias a un aumento de la productividad.
Sin embargo, la misma encuesta, realizada a 2.950 responsables de decisiones y líderes de implantación de software en Norteamérica, Europa, Oriente Medio, África y Asia-Pacífico, muestra una clara línea roja: solo el 30 % de los empleados se siente cómodo con la idea de ser gestionado directamente por un agente de IA.
El límite entre copiloto y capitán
El informe describe un panorama de optimismo contenido. Tres de cada cuatro trabajadores (75 %) valoran positivamente colaborar con agentes de IA o recibir de ellos recomendaciones para mejorar habilidades, pero la confianza se erosiona rápidamente cuando la IA adopta un rol de autoridad.
Por ejemplo:
- Gestión de empleados: solo el 30 % está cómodo.
- Toma de decisiones financieras críticas: 40 %.
- Operar sin conocimiento del usuario: apenas un 24 %.
La conclusión es clara: los trabajadores ven a la IA como un copiloto, no como el capitán de la nave.
Beneficios claros, pero también temores
Entre las ventajas que los encuestados esperan obtener de los agentes de IA destacan:
- Crecimiento y desarrollo profesional (85 %).
- Mejora del equilibrio entre vida laboral y personal (80 %).
- Mayor satisfacción laboral (79 %).
Más de la mitad (56 %) cree que el retorno de inversión llegará en menos de un año. Sin embargo, persisten preocupaciones sobre la pérdida de pensamiento crítico (48 %), la erosión de la conexión humana (36 %) y los riesgos éticos, de seguridad y privacidad (44 % y 39 %, respectivamente).
Dónde la IA encaja… y dónde no
El estudio subraya que la confianza en los agentes de IA varía en función de la tarea:
- Alta confianza: gestión de infraestructura tecnológica y desarrollo de habilidades.
- Baja confianza: decisiones sobre personas, dinero y cumplimiento legal, donde cualidades humanas como la empatía o el juicio ético son irremplazables.
En el área de Recursos Humanos, se prevé que la IA aporte valor en planificación de plantilla (84 %), optimización de horarios (80 %) y control de asistencia (75 %). En finanzas, un 76 % cree que puede ayudar a paliar la escasez de profesionales, especialmente en presupuestos, reporting y detección de fraude.
Generando confianza a través de la experiencia
La investigación detecta un patrón interesante: cuanto mayor es la exposición a los agentes de IA, mayor es la confianza en su uso responsable. Organizaciones que están en fases avanzadas de despliegue muestran niveles de confianza muy superiores a las que apenas están explorando la tecnología.
Para consolidar esa confianza, los expertos recomiendan:
- Definir claramente el papel de la IA en cada proceso.
- Garantizar transparencia en la toma de decisiones.
- Proporcionar formación para que los empleados sepan cuándo y cómo usar estas herramientas.
- Implantar marcos éticos y de gobernanza sólidos.
El papel insustituible de las personas
A pesar del potencial transformador de los agentes de IA, el informe insiste en que la era “agéntica” estará liderada por humanos. Esto implica redefinir roles y métricas de rendimiento, dando prioridad a cómo las personas usan la IA para generar valor, más que a la cantidad de tareas que la IA pueda realizar por sí misma.
La figura del “chief work officer” —responsable de diseñar cómo se organiza el trabajo en entornos híbridos humano-IA— se perfila como clave para optimizar la colaboración y garantizar que la tecnología potencie, y no sustituya, el talento humano.
Conclusión: una frontera que requiere equilibrio
El estudio deja claro que el reto no está en la capacidad técnica de la IA, sino en diseñar una integración que respete los límites humanos, proteja la confianza y refuerce la colaboración. Los agentes de IA no son (ni deberían ser) jefes automáticos, sino herramientas al servicio de equipos más productivos, creativos y resilientes.
Preguntas frecuentes
1. ¿Qué es un agente de IA?
Es un sistema de inteligencia artificial diseñado para realizar tareas, tomar decisiones y actuar de forma autónoma o semiautónoma dentro de un ámbito definido, aprendiendo y adaptándose con el tiempo.
2. ¿Por qué los trabajadores rechazan a la IA como “jefe”?
Porque la gestión de personas implica empatía, juicio ético y comunicación matizada, cualidades que la IA no puede replicar plenamente.
3. ¿En qué áreas se confía más en los agentes de IA?
Principalmente en tareas técnicas como gestión de infraestructura IT y desarrollo de habilidades, donde la precisión y la velocidad son prioritarias.
4. ¿Cómo pueden las empresas aumentar la confianza en la IA?
Definiendo roles claros, garantizando transparencia en decisiones, formando a los empleados y aplicando normas éticas y de gobernanza sólidas.