El uso excesivo de ChatGPT podría estar debilitando la actividad cerebral, según un estudio del MIT

Una investigación del MIT Media Lab advierte sobre los efectos cognitivos adversos de confiar en asistentes de IA para tareas académicas complejas

Un reciente estudio del MIT Media Lab ha encendido las alarmas en el ámbito educativo y tecnológico: el uso frecuente de herramientas como ChatGPT para redactar ensayos académicos podría estar generando lo que los investigadores llaman una “deuda cognitiva acumulada”. A través de pruebas con electroencefalogramas (EEG) y análisis de contenido, el equipo concluyó que la dependencia sostenida de modelos de lenguaje como los de OpenAI reduce la conectividad cerebral, la memoria de trabajo y la percepción de autoría del propio texto.

El estudio, titulado “Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Tasks”, fue liderado por la investigadora Nataliya Kos’myna y se llevó a cabo durante un período de cuatro meses con 54 estudiantes universitarios. Los participantes fueron divididos en tres grupos: uno utilizó un modelo LLM (como ChatGPT), otro empleó buscadores tradicionales, y el tercero realizó las tareas sin asistencia tecnológica.

La paradoja de la productividad: más rapidez, menos pensamiento

Los resultados mostraron que quienes usaron ChatGPT produjeron textos más rápidos pero menos originales y con menor compromiso cognitivo. Sus registros EEG revelaron las redes cerebrales más débiles y menos distribuidas, en comparación con los grupos que trabajaron sin herramientas o con buscadores. En contraste, los participantes que comenzaron sin ayuda mostraron mayor actividad en áreas prefrontales y parietales, asociadas con el razonamiento crítico y la memoria a corto plazo.

“La comodidad que ofrece la IA puede estar produciendo una forma de pasividad mental peligrosa”, señala el estudio. “Los usuarios dejan de cuestionar y validar, aceptando las respuestas generadas como definitivas”.

Uno de los hallazgos más preocupantes fue que los usuarios habituales de ChatGPT tenían dificultades para recordar o citar su propio trabajo, lo que se interpretó como una señal de desconexión entre el proceso creativo y el resultado.

La IA como apoyo, no como sustituto

Durante la cuarta sesión del experimento, algunos participantes cambiaron de grupo. Aquellos que pasaron de usar ChatGPT a trabajar sin asistencia (“LLM-to-Brain”) presentaron una reducción notable en las bandas alfa y beta del EEG, indicativo de baja activación mental. En cambio, quienes hicieron la transición inversa (“Brain-to-LLM”) mantuvieron niveles más altos de memoria y conectividad neuronal, lo que sugiere que la IA puede potenciar, pero no reemplazar, el esfuerzo cognitivo humano.

El estudio también documenta una baja percepción de propiedad intelectual en los usuarios de IA: apenas sentían el texto como suyo, a diferencia de quienes trabajaron con sus propios medios. Esto tiene implicaciones éticas y educativas importantes.

Implicaciones para el futuro del aprendizaje

En un contexto donde las herramientas de IA generativa están cada vez más presentes en aulas, universidades y empresas, el informe del MIT plantea una cuestión central: ¿hasta qué punto debemos delegar nuestro pensamiento a algoritmos?

“Las LLMs ofrecen conveniencia inmediata, pero a costa de una degradación gradual del compromiso cognitivo”, concluye el documento. “Es urgente repensar cómo y cuándo integrar la IA en entornos educativos sin sacrificar los procesos mentales esenciales”.

La advertencia es clara: en el aprendizaje, como en muchas áreas, la inteligencia artificial debe ser una aliada, no una muleta.

Scroll al inicio