La escena se repite a diario: un usuario pide un dato preciso a un asistente de inteligencia artificial y recibe una respuesta firme, detallada… y falsa. No es un error aislado ni un contratiempo de una versión concreta. Según un nuevo análisis de OpenAI (resumido bajo el título “Why Language Models Hallucinate”), las llamadas alucinaciones no son un bug, son una consecuencia estructural de cómo se entrenan y evalúan los grandes modelos de lenguaje (LLM). En paralelo, el debate vuelve a primera línea con un caso llamativo en el mundo del cine: Showrunner planea “reconstruir” mediante IA 43 minutos perdidos de The Magnificent Ambersons (1942), de Orson Welles, a partir de fotos de rodaje y técnicas mixtas de posproducción. Dos historias que ilustran lo mismo: la IA puede ser útil, pero su relación con la verdad y la fidelidad exige nuevos criterios y cautela.
No es (solo) un despiste: la fluidez se premia más que la exactitud
La tesis de OpenAI es incómoda y, a la vez, liberadora: los LLM están optimizados para sonar bien, no necesariamente para estar en lo cierto. En su núcleo, estos sistemas aprenden a predecir la siguiente palabra a partir de ingentes cantidades de texto. En ese juego probabilístico, la frase fluida obtiene mejor nota que la frase vacilante, y la mayor parte de los benchmarks usados para medir progreso premian el acierto aparente por encima de la admisión honesta de incertidumbre.
Una analogía del propio trabajo lo deja claro: es como un examen en el que dejar una pregunta en blanco penaliza más que arriesgarse con una conjetura “razonable”. En ese marco, el “no lo sé” sale caro en términos de optimización, mientras que una respuesta incorrecta pero segura puede puntuar mejor. Resultado: el sistema aprende a rellenar huecos con invenciones plausibles cuando su conocimiento falla. Y, dado que ningún conjunto finito de datos puede abarcar toda la realidad, habrá huecos; por tanto, las alucinaciones son inevitables en sistemas generales.
Cambiar las reglas del juego: recompensar el “no lo sé”
La propuesta de OpenAI no pasa por rediseñar la arquitectura desde cero, sino por cambiar la función de recompensa: incentivar explícitamente que el modelo admita la incertidumbre. La versión simple suena a sentido común: “Responde solo si estás lo bastante seguro; si no, di ‘no lo sé’.” La versión formal, en términos de evaluación, introduce un umbral de confianza: si un fallo cuesta t/(1−t) puntos y el acierto vale 1, al modelo le sale a cuenta callarse salvo que supere ese umbral. Para t = 0,5 el castigo es 1; para t = 0,75 el castigo es 2; para t = 0,9 el castigo sube a 9.
¿Problema? Los modelos actuales no disponen de un “medidor de confianza” calibrado en porcentajes. Cuando un usuario pide “responde solo si estás al 90 % seguro”, el sistema lo interpreta como estilo cauteloso, no como una probabilidad interna robusta. Aun así, empujar hacia la negativa justificada puede reducir alucinaciones, sobre todo si los propios procesos de fine-tuning y evaluación integran esa lógica de forma sistemática. En otras palabras: hay camino sin necesidad de romperlo todo, pero la solución no es mágica ni inmediata.
Mientras tanto, el usuario no está indefenso: cinco defensas prácticas
Hasta que el entrenamiento y la evaluación de los LLM cambien de verdad, parte del control está en manos del usuario. La guía práctica que acompaña al trabajo de OpenAI propone cinco hábitos para “domar” alucinaciones hoy:
- Pedir fuentes siempre. Exigir citas o enlaces y comprobarlos. Si no hay referencias o no cuadran, sospechar. Como en Wikipedia: sirve, si se siguen las notas al pie.
- Delimitar el encargo. Las preguntas vagas invitan a la divagación. Mejor acotar: “enumera tres estudios revisados por pares publicados después de 2020 sobre X”, en lugar de “cuéntame X”.
- Contrastar en otra herramienta. Consultar el mismo asunto en otro modelo o en un buscador. Si varias fuentes coinciden, mejor; si una desentona con detalles muy concretos, podría ser una alucinación.
- Vigilar la sobreactuación. La señal típica de una alucinación no es la duda, es la chulería: mucho detalle inventado y cero matiz. Si suena demasiado seguro para lo que debería, revisar.
- Confiar, pero verificar. No pegar sin filtro la salida del modelo en código, contratos o historiales clínicos. Tratarlo como borrador, no como verdad revelada.
Además, conviene activar —cuando existan— modos de “factualidad estricta” o bajar la temperatura para reducir creatividad en tareas sensibles. Son parches útiles mientras llegan cambios de fondo.
Un caso límite en el cine: reconstruir a Welles con IA
La conversación sobre verdad, fidelidad y límites de la IA no es solo académica. En la industria audiovisual, Showrunner ha anunciado que planea “reconstruir” 43 minutos perdidos de The Magnificent Ambersons, de Orson Welles, combinando herramientas de IA y técnicas convencionales. La empresa prevé trabajar durante dos años y partir de fotografías de los decorados y del rodaje para “ensamblar una interpretación” de ese metraje ausente, según adelantó la prensa especializada.
El proyecto, inevitablemente, despierta tanto ilusión como recelo. Ilusión, porque abre una vía para rescatar patrimonio fílmico irrecuperable por métodos tradicionales. Recelo, porque plantea preguntas incómodas:
- ¿Dónde termina la restauración y empieza la reinterpretación?
- ¿Cómo se señaliza al espectador qué es original y qué es reconstruido por IA?
- ¿Qué responsabilidad ética y legal asume quien firma una versión “probable” de la intención de un autor que ya no puede supervisarla?
Incluso desde el ángulo técnico, el desafío se parece al de las alucinaciones: con agujeros en los datos, la IA rellena con lo plausible. En una obra canónica como Ambersons, lo plausible no equivale a lo verdadero. En ese sentido, la experiencia servirá para comprobar si la industria es capaz de fijar estándares de transparencia y marcas de agua que no confundan al público y protejan la integridad de los clásicos.
Alucinaciones: causas de fondo y por qué persisten en todos los modelos
Más allá del diseño de recompensas, hay tres factores de fondo que explican por qué el problema no desaparece cambiando de proveedor o versión:
- Mundo abierto, datos finitos. El conocimiento humano crece y se actualiza; cualquier snapshot de texto está desfasado en algún frente.
- Lenguaje ≠ Verdad. Un LLM modela el lenguaje, no el mundo. Si en los datos abundan asociaciones erróneas o sesgos, la fluidez seguirá a esas huellas.
- Evaluaciones cortoplacistas. Si los benchmarks siguen premiando el brillo por encima del rigor, la inversión tenderá a optimizar lo vistoso.
Declarar que las alucinaciones son “inevitables” no es rendirse, es reconocer que sin cambios en incentivos y métricas la curva de mejora se aplana justo donde más duele: exactitud verificable.
Lo que sí puede cambiar (y pronto)
Hay tres palancas realistas que las organizaciones pueden mover ya para reducir falsos positivos sin esperar a la “IA perfecta”:
- Políticas de negativa explícita. Instrucciones y fine-tuning que premien el “no lo sé” en ámbitos de alto riesgo (salud, finanzas, legal).
- Modos de “citar o callar”. Controles que obliguen a referenciar cuando el usuario lo solicite; si no hay fuente, responder con incertidumbre.
- Experiencia de usuario con banderas. Señales visuales de baja confianza, botones de verificación rápida y resúmenes con alertas cuando el sistema infiere más de la cuenta.
Nada de lo anterior elimina el problema; lo hace gestionable y, sobre todo, visible para el usuario, que deja de navegar a ciegas.
El papel de los medios y la educación: alfabetización en IA
El caso Welles lo demuestra: la alfabetización mediática en tiempos de IA es crítica. Igual que se enseña a reconocer desinformación o a valorar fuentes, conviene incorporar didáctica de IA:
- qué es una alucinación;
- por qué un sistema finge seguridad;
- cómo pedir trazabilidad;
- cuándo parar y verificar.
La paradoja es que, como herramienta, la IA puede ayudar a explicar sus propias limitaciones si se la obliga a mostrar su trabajo (citas, pasajes relevantes, fecha de los datos). Convertir ese “modo transparente” en estándar de producto sería un paso cultural tan importante como cualquier mejora técnica.
Conclusión: de la fluidez confiada a la honestidad útil
Si OpenAI tiene razón, la alucinación no es una anécdota, sino un síntoma de un sistema de incentivos mal calibrado. Corregirlo no requiere magia, sino aceptar que decir “no lo sé” es, a veces, la respuesta más valiosa. Para los usuarios, las cinco defensas prácticas ofrecen una red de seguridad; para las empresas, premiar la negativa honesta y exigir fuentes debería ser política por defecto en tareas sensibles.
En el terreno creativo, proyectos como el de Showrunner con The Magnificent Ambersons confirman que la IA puede abrir puertas; pero también obligan a poner límites claros entre reconstrucción y reinvención. Sea en un párrafo o en un plano perdido, lo verosímil nunca debe confundirse con lo verdadero.
Preguntas frecuentes (FAQ) – Long-tail SEO
¿Por qué ChatGPT y otros modelos “alucinan” y se inventan referencias?
Según OpenAI, es estructural: los LLM optimizan fluidez y probabilidad de lenguaje, no verdad. Los benchmarks y la función de recompensa penalizan el “no lo sé” y premian conjeturas plausibles, por eso tienden a inventar cuando faltan datos.
Cómo reducir alucinaciones de modelos de lenguaje en tareas críticas (guía práctica 2025)
Use prompts restrictivos, pida citas verificables, active modos de factualidad y baje la temperatura. Cruce resultados con otro modelo o un buscador y trate las salidas como borradores sujetos a verificación antes de usarlos en código, contratos o informes médicos.
Qué significa “recompensar el ‘no lo sé’” en IA y cómo aplicarlo en mi empresa
Implica cambiar la evaluación: dar puntos a la negativa justificada y penalizar errores de forma proporcional a un umbral de confianza (t). En la práctica: políticas internas que prefieran silencio a especulación en dominios regulados, más interfaces que indiquen baja confianza.
Reconstrucciones con IA en cine: buenas prácticas para proyectos como ‘Ambersons’
Se recomienda señalización explícita de metraje reconstruido, documentación de fuentes (fotos, guiones, notas), marcas de agua invisibles y créditos detallados. La clave ética es no presentar como “restauración” lo que es “reinterpretación” asistida por IA.