Estudio de Microsoft y Carnegie Mellon advierte: la IA generativa debilita el pensamiento crítico de los profesionales

Un informe basado en el uso real de IA en entornos laborales revela una preocupante relación entre la confianza en las herramientas generativas y la pérdida de capacidades cognitivas clave entre trabajadores del conocimiento.

La integración de herramientas de Inteligencia Artificial generativa en entornos profesionales ha traído consigo un importante aumento en la eficiencia, pero también podría estar afectando de forma preocupante la capacidad crítica de los trabajadores. Así lo advierte el estudio “The Impact of Generative AI on Critical Thinking”, elaborado por investigadores de Microsoft Research y la Universidad Carnegie Mellon, que será presentado en la Conferencia sobre Factores Humanos en Sistemas Informáticos (CHI 2025) a finales de este mes.

El documento, de más de 20 páginas, se apoya en una encuesta realizada a 319 trabajadores del conocimiento (conocidos en inglés como knowledge workers), todos ellos usuarios frecuentes de IA generativa en sus trabajos. Los resultados muestran una clara tendencia: a mayor confianza en la IA, menor esfuerzo cognitivo para evaluar sus resultados.

La paradoja de la eficiencia: más productividad, menos juicio

El estudio destaca una paradoja central: mientras la IA generativa mejora la velocidad y eficiencia con la que se realizan muchas tareas —como redactar correos, resumir artículos o generar ideas—, también fomenta una especie de “autopiloto intelectual” entre los usuarios. En palabras del equipo de investigación:

“Confiar excesivamente en la IA genera una delegación pasiva del juicio humano, inhibiendo la práctica cotidiana del pensamiento crítico que estos trabajadores necesitan conservar y fortalecer”.

Uno de los autores principales, Hao-Ping Lee, señala en el estudio que este patrón puede producir una “atrofia cognitiva” en el tiempo: los usuarios dejan de enfrentarse a problemas complejos y pierden destreza en habilidades como la evaluación crítica, la creatividad y la resolución autónoma.

Tres formas de uso de la IA generativa

Los encuestados clasificaron el uso de herramientas como ChatGPT, Copilot o Gemini en tres grandes categorías:

  1. Creación (por ejemplo, redacción de correos o presentaciones).
  2. Consulta de información (búsqueda de datos, resúmenes, explicaciones).
  3. Asesoramiento y soporte visual (pedir recomendaciones, generar gráficos o visualizaciones a partir de datos).

A pesar de la aparente utilidad de estas funciones, solo el 36 % de los participantes afirmó aplicar pensamiento crítico al revisar las respuestas generadas. Un 32 % dijo confiar plenamente en la IA cuando la respuesta “parecía correcta”, y un 20 % confesó no revisar nada si la IA ofrecía algo razonable.

La confianza como factor determinante

El informe distingue entre tres tipos de confianza:

  • Confianza en la IA.
  • Confianza en uno mismo.
  • Confianza en la propia capacidad para evaluar resultados de IA.

El análisis estadístico demostró que quienes confiaban más en sus propias habilidades aplicaban significativamente más pensamiento crítico. En cambio, quienes depositaban su confianza principalmente en la IA tendían a aceptar respuestas sin apenas revisión o cuestionamiento.

Este hallazgo se alinea con estudios previos sobre la automatización y el comportamiento humano, en los que se ha observado que la “comodidad” de dejar que una máquina tome decisiones puede reducir la implicación humana incluso en tareas críticas, como la conducción asistida o la supervisión industrial.

Factores que inhiben el pensamiento crítico

Entre las razones más comunes para no aplicar pensamiento crítico, los encuestados mencionaron:

  • Falta de tiempo.
  • Sensación de que la tarea era rutinaria o poco importante.
  • Confianza en que la IA “siempre acierta”.
  • Falta de conocimiento sobre el funcionamiento interno de la IA.

Este último punto fue particularmente preocupante: muchos trabajadores no entendían cómo se generaban las respuestas, lo que disminuía su capacidad para detectar errores o sesgos. “Los daños derivados del uso de la IA solo motivan pensamiento crítico si el usuario es consciente de ellos”, advierten los investigadores.

Propuesta de solución: diseñar IA que estimule el juicio humano

El estudio no se limita a señalar riesgos, también propone caminos para mitigarlos. En concreto, los autores sugieren que las herramientas de IA generativa deben diseñarse para fomentar el pensamiento crítico, no para sustituirlo.

Entre las recomendaciones destacan:

  • Incorporar alertas que inviten a la revisión activa de resultados.
  • Incluir explicaciones sobre cómo y por qué se genera una respuesta.
  • Integrar funcionalidades que requieran al usuario justificar o mejorar las salidas de la IA.

Además, proponen formar a los trabajadores en alfabetización sobre IA, para que comprendan mejor los sesgos, limitaciones y mecanismos de estas herramientas. “El objetivo no es desconfiar de la IA, sino aprender a trabajar con ella de forma crítica y consciente”, explican.

Implicaciones para empresas y responsables de RR.HH.

El informe lanza una advertencia clara para organizaciones que están adoptando estas tecnologías: si bien la IA puede mejorar la productividad a corto plazo, una implementación sin estrategia formativa puede perjudicar la capacidad cognitiva de sus empleados a largo plazo.

En un contexto de creciente automatización, la capacidad de pensar críticamente, resolver problemas complejos y aprender de forma autónoma será más importante que nunca. La conclusión es clara: la IA no debe convertirse en un sustituto del juicio humano, sino en una herramienta para potenciarlo.


Referencia completa:

Lee, Hao-Ping et al. The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. Microsoft Research & Carnegie Mellon University. Presentado en CHI 2025. [PDF disponible].

Vía: Noticias educación

Scroll al inicio