Un reciente estudio realizado por el Tow Center for Digital Journalism ha expuesto deficiencias preocupantes en la manera en que ChatGPT, el modelo de inteligencia artificial desarrollado por OpenAI, gestiona la atribución de fuentes en citas periodísticas. La investigación evidencia errores significativos en las referencias proporcionadas por el chatbot, incluso en casos que involucran a editores con acuerdos exclusivos de contenido con OpenAI.
El análisis incluyó 200 citas seleccionadas al azar de 20 editores, divididos entre aquellos con acuerdos de licencia con OpenAI, medios que han iniciado acciones legales contra la empresa y otros que han bloqueado los rastreadores del modelo. Los resultados son alarmantes: ChatGPT falló en atribuir correctamente la fuente en 153 de los casos examinados. Entre los ejemplos destacados, se encuentra una cita erróneamente atribuida al Orlando Sentinel, que el modelo identificó como proveniente de Time. Este error pone de manifiesto que ningún editor está exento del riesgo de ser representado de manera incorrecta.
Implicaciones para los medios y el periodismo
Estos fallos en la atribución tienen consecuencias graves para los editores. Por un lado, comprometen su reputación, al asociar de forma errónea contenido de calidad con otras publicaciones. Por otro, generan pérdidas comerciales, ya que los usuarios que interactúan con ChatGPT pueden ser redirigidos a sitios incorrectos, disminuyendo el tráfico hacia las fuentes legítimas.
El estudio también subraya que los editores tienen una capacidad limitada para controlar cómo se utiliza su contenido dentro del modelo, lo que plantea dudas sobre la transparencia y la equidad en el uso de sus materiales. Esta situación no solo socava la confianza en ChatGPT como herramienta, sino que también pone de relieve los riesgos que las tecnologías de inteligencia artificial representan para la representación precisa del periodismo profesional.
Respuesta de OpenAI
Ante estos hallazgos, OpenAI ha respondido defendiendo la funcionalidad de su modelo y calificando el estudio como una evaluación «atípica». Según la compañía, el propósito de ChatGPT es ofrecer respuestas relevantes y enlaces útiles a los usuarios. No obstante, reconocen que, aunque el modelo puede proporcionar enlaces, no puede garantizar una atribución precisa de las citas.
Un debate necesario sobre el papel de la IA en el periodismo
Los resultados del estudio reavivan el debate sobre la fiabilidad de los sistemas de inteligencia artificial en la gestión de información periodística. La falta de precisión en la atribución de fuentes plantea preguntas fundamentales sobre la ética y la responsabilidad de estas tecnologías. Asimismo, destaca la necesidad urgente de establecer mecanismos más robustos para verificar y atribuir correctamente las fuentes, con el objetivo de preservar la integridad del contenido editorial.
A medida que las plataformas basadas en inteligencia artificial como ChatGPT se integran cada vez más en la vida cotidiana, estas cuestiones se vuelven críticas para garantizar que el periodismo de alta calidad no se vea socavado por errores tecnológicos. El estudio del Tow Center for Digital Journalism marca un punto de inflexión en la conversación global sobre cómo la inteligencia artificial debe interactuar con el ecosistema mediático y proteger la precisión en un mundo digital cada vez más complejo.