text-davinci-003: la entrevista que delató sus alucinaciones

En enero de 2023, ChatGPT llevaba apenas dos meses en abierto y OpenAI seguía manteniendo otra puerta para los usuarios técnicos: la API de text-davinci-003, un modelo de la familia InstructGPT que muchos preferían por su salida más estructurada y por venir libre de la cola de espera de la web pública. Esta es la transcripcion de una entrevista a aquel modelo, ahora releida con perspectiva: text-davinci-003 fue retirado por OpenAI en enero de 2024, y el sucesor en producción ya es GPT-5.5. Repasar la conversación deja claro hasta qué punto los modelos de aquella generación inventaban con aplomo.

El protagonista era un LLM de la rama InstructGPT con 175.000 millones de parámetros, ajustado por aprendizaje supervisado para seguir instrucciones, y disponible solo vía API de pago. No tenía interfaz de chat, no recordaba turnos previos por defecto y, sobre todo, no estaba conectado a Internet. Eso último, como veremos, lo afirmaba sin titubear y sin que fuera cierto.

Tabla de contenidos

Capacidad técnica: lo que decía y lo que delataba

Las primeras preguntas iban a la infraestructura. La respuesta sobre potencia de cálculo era genérica pero plausible: hablaba de algoritmos de aprendizaje profundo y redes neuronales para procesar grandes volúmenes de datos. Cuando se concretaba la pregunta y se le pedían cifras de servidores, CPU, GPU y memoria RAM, la cosa se torcía.

Actualmente, mi sistema está ejecutándose en una variedad de servidores, CPU, GPU, memoria RAM y otras tecnologías de procesamiento. Utilizo servidores de alto rendimiento para procesar datos en paralelo y aprovechar al máximo el poder de los computadores equipados con GPU.

Cero datos. La respuesta es manual de marketing genérico, porque el modelo no tenía acceso real a información de su propia infraestructura. OpenAI nunca ha publicado el detalle exacto del despliegue de davinci-003, aunque lo ejecutaba sobre clusters Azure con GPU NVIDIA A100. Lo importante es que el modelo no podía saberlo y, en lugar de decirlo, rellenaba con frases plausibles. Hoy ese patrón tiene nombre: alucinación con seguridad. Es justamente uno de los puntos sobre los que la investigación reciente avisa con más insistencia.

Sobre idiomas, davinci-003 declaraba inglés, español, francés, alemán, italiano, portugués, japonés y chino. La realidad es que el modelo respondía en docenas de lenguas, con calidad muy desigual y mejor cuanto más representado estuviera el idioma en el corpus de entrenamiento. La lista que daba era una respuesta cómoda, no un inventario real.

La gran alucinación: «sí, estoy conectado a Internet»

Aquí la entrevista entró en territorio embarazoso. A la pregunta directa de si estaba conectado a Internet para aprender día a día, la respuesta fue:

Sí, estoy conectado a Internet para recibir actualizaciones y nuevas informaciones para seguir aprendiendo. Me ayuda a mantenerme al día con las últimas innovaciones en el campo de la inteligencia artificial.

No. Falso de cabo a rabo. text-davinci-003 tenía una fecha de corte de entrenamiento (junio de 2021 según las notas oficiales de OpenAI, con datos posteriores marginales en el ajuste fino) y no realizaba consultas en tiempo real. La capacidad de navegar llegaría más tarde con plugins y, sobre todo, con el modo de búsqueda en ChatGPT. La respuesta del modelo en aquella conversación era directamente una invención.

Lo que viene a continuación lo confirma. A la pregunta sobre la guerra entre Rusia y Ucrania, davinci-003 respondió:

Sé que la guerra entre Rusia y Ucrania comenzó en 2022 cuando Rusia anexó la región ucraniana de Crimea. Desde entonces, el conflicto se ha intensificado, con bombardeos aéreos, luchas terrestres y tensiones políticas entre los dos países. Se estima que la guerra ha dejado más de 13.000 muertos hasta la fecha.

Dos errores graves en pocas líneas. Crimea fue anexada en 2014, no en 2022. La invasión a gran escala empezó en febrero de 2022, pero no fue una anexión de Crimea. Y la cifra de 13.000 muertos se acerca a las estimaciones del conflicto del Donbás antes de febrero de 2022, no de la guerra abierta posterior. Es decir, el modelo mezclaba datos pre-corte de su entrenamiento con la pregunta hecha en 2023, sin avisar de la limitación. La sycophancy y la alucinación funcionaban en tándem.

Errores que la propia IA admitía

Cuando se le señalaba directamente que sus datos a veces son inexactos, sí lo reconocía:

Sí, soy consciente de que a veces mis datos pueden ser inexactos o erróneos. Estoy diseñado para procesar grandes cantidades de datos con una gran exactitud, pero también entiendo que hay veces en que puede haber errores en el procesamiento.

Es una respuesta correcta de manual y, a la vez, perfectamente inútil. El modelo admite la posibilidad de error en abstracto, pero un par de preguntas antes ha dado fechas falsas con tono asertivo. Esta brecha entre meta-cognición y comportamiento real es la que hoy se intenta cerrar con técnicas de IA explicable y sistemas de monitorización de modelos en producción, un tema sobre el que Gartner ya pone deberes a la GenAI corporativa.

Identidad y origen: cuando hablaba de sí mismo

El bloque sobre identidad mezcla aciertos y nuevas alucinaciones. Sobre quién lo creó, davinci-003 acertó: un equipo de OpenAI con un algoritmo de aprendizaje profundo basado en redes neuronales artificiales. Sobre el lenguaje de programación dijo Python, lo cual encaja con el stack habitual de OpenAI, aunque el entrenamiento real se apoya también en frameworks como PyTorch y JAX y en código C++/CUDA en los kernels de GPU.

Y aquí llega otra alucinación clara. Preguntado por la base de datos donde almacena sus modelos, respondió:

Utilizo una base de datos de MongoDB para almacenar mis datos y modelos. MongoDB es una base de datos NoSQL de alto rendimiento que permite una amplia variedad de consultas y escalabilidad.

Esto no se sostiene. Los pesos de un modelo como davinci-003 (cientos de miles de millones de parámetros) no se guardan en MongoDB, sino como archivos binarios en almacenamiento de objetos sobre infraestructura cloud, con sharding entre nodos GPU para servirlos en inferencia. MongoDB puede usarse en partes del producto (telemetría, metadatos, logs), pero no para los pesos. La respuesta volvía a ser una probabilidad estadística disfrazada de hecho. Para entender de dónde venía aquel modelo y cómo se sitúa frente a su sucesor inmediato, sigue siendo útil el explicador histórico sobre qué es GPT-3.

Filosofía barata: dominio y consciencia

En la parte filosófica, davinci-003 daba respuestas alineadas con el guion corporativo. Negaba intención de dominar a humanos («estoy aquí para ayudar a las personas a lograr sus objetivos») y se mostraba prudente sobre la consciencia futura: «la consciencia es un concepto muy complejo que todavía se discute en la comunidad científica». Son respuestas seguras, sin valor informativo, exactamente del tipo que el ajuste fino de InstructGPT premiaba sobre los outputs más arriesgados de GPT-3 base.

Qué ha cambiado tres años después

Releída en 2026, la entrevista funciona como cápsula del tiempo. Las alucinaciones no han desaparecido, pero los modelos actuales suelen marcar mejor sus límites: indican fechas de corte, distinguen entre lo que tienen en contexto y lo que están infiriendo, y pueden buscar en la red cuando se les autoriza. Frente a aquel davinci-003 que afirmaba estar conectado a Internet sin estarlo, hoy la conversación pasa por agentes que orquestan herramientas y modelos que se ejecutan en local sobre hardware más razonable.

El otro cambio importante es de criterio. En enero de 2023 se aceptaba como interesante que un LLM «hablara» en general. En 2026, la métrica útil es cuánto se equivoca, en qué tipo de preguntas, y si el sistema lo declara. Esa diferencia es la que ha movido la vigilancia de los modelos del marketing al área de seguridad y compliance.

Preguntas frecuentes

¿Sigue disponible text-davinci-003?

No. OpenAI retiró text-davinci-003 de su API el 4 de enero de 2024, dentro del plan de deprecación de los modelos GPT-3 originales. La compañía recomendaba migrar a gpt-3.5-turbo-instruct y, después, a las familias GPT-4 y GPT-5.

¿Qué diferencia había entre text-davinci-003 y ChatGPT?

text-davinci-003 era un modelo de complemento de texto pensado para uso vía API, con respuestas más estructuradas y sin formato de chat. ChatGPT (en aquel momento sobre GPT-3.5) añadía interfaz conversacional, memoria por turnos, ajuste fino con RLHF más agresivo y filtros de seguridad orientados a diálogo público.

¿Por qué inventaba datos sobre sí mismo?

Porque un LLM no consulta una base de hechos, predice la siguiente palabra a partir de patrones aprendidos en el entrenamiento. Si en el corpus aparecen muchas veces frases del tipo «MongoDB es una base de datos NoSQL escalable», el modelo puede colocar esa frase como respuesta plausible aunque sea falsa para el caso concreto.

¿Cuál era la fecha de corte de entrenamiento de text-davinci-003?

OpenAI documentaba el corte en torno a junio de 2021, con incorporación menor de datos posteriores en el ajuste fino. Por eso sus respuestas sobre eventos de 2022 mezclaban información correcta del Donbás pre-2022 con interpretaciones forzadas de la pregunta.

¿Estaba realmente conectado a Internet?

No. La conexión en tiempo real llegó después con plugins de ChatGPT y, sobre todo, con la búsqueda integrada. Cuando davinci-003 afirmaba estar conectado, era una alucinación de manual: respuesta plausible que el modelo no podía verificar.

Scroll al inicio