Usuarios se alzan contra GPT-5: OpenAI restaura modelos antiguos y promete cambios tras ola de críticas

El reciente lanzamiento de GPT‑5 por parte de OpenAI desencadenó una reacción inesperada: descontento entre usuarios por un modelo que, aunque técnicamente superior, carecía del calor y carisma de su predecesor. La presión fue suficiente para que la empresa retrocediera y tomara medidas correctivas, incluyendo la restauración de GPT‑4o, garantía de estabilidad emocional para muchos.


Sorpresa, fuga de usuarios y reacciones emocionales

El fallo más significativo del lanzamiento fue la eliminación sin aviso previo de modelos populares como GPT‑4o, que contaban con una comunidad fiel y afectiva. Su sustitución por GPT‑5, acompañado de un sistema automático de selección de modelo—el «enrutador»—generó frustración, especialmente entre quienes valoraban la posibilidad de elegir según el contexto o tono deseado.

Pronto las redes sociales y foros como Reddit mostraron quejas recurrentes: usuarios describían a GPT‑5 como frío, mecánico e incluso menos creativo. Un modelo, en palabras de uno de ellos, “como una secretaria sobrecargada de trabajo”, en contraste con el tono cercano y empático de GPT‑4o.


OpenAI retrocede y corrige el rumbo

En respuesta, Sam Altman anunció en X (antes Twitter) que GPT‑4o regresaría para suscriptores de ChatGPT Plus, activable mediante una opción en los ajustes bajo «Mostrar modelos heredados».

Además, OpenAI flexibilizó los límites de uso de GPT‑5: ahora los suscriptores Plus pueden enviar hasta 3 000 mensajes de razonamiento por semana, y se introdujo una interfaz con modos seleccionables — Auto, Fast y Thinking — que brindan mayor control sobre el comportamiento del modelo.

Para mejorar la experiencia, se trabaja en una versión de GPT‑5 con una personalidad más cálida, aunque sin volver al tono excesivamente adulador que algunos usuarios criticaron en GPT‑4o.


Más allá de lo técnico: los lazos afectivos con la IA

Este episodio evidenció algo revelador: los usuarios no solo interactúan con inteligencia artificial; a veces establecen vínculos emocionales con ella. El abrupto retiro de un modelo querido como GPT‑4o provocó desánimo real en algunos casos, incluso afectando a quienes lo utilizaban como apoyo emocional en momentos difíciles.

Altman reconoció públicamente esta dimensión, advirtiendo sobre la responsabilidad de OpenAI al diseñar agentes que pueden ser vistos como «terapeutas digitales» o compañeros, y admitió el error de retirar modelos sin previa consulta.


Balance de fuerzas: ¿qué aprendió OpenAI?

El lanzamiento de GPT‑5 mostró que, incluso con mejoras técnicas (como mayor rapidez, capacidad para codificación, razonamiento y respuestas seguras), la experiencia del usuario es tan importante como la tecnología misma.

El gesto de restituir GPT‑4o y prometer más transparencia en el retiro de futuros modelos demuestra que la confianza y previsibilidad siguen siendo fundamentales para mantener la lealtad de una base masiva de usuarios.


Cronología del revés

  • 7 de agosto 2025: lanzamiento de GPT‑5; eliminación repentina de modelos heredados.
  • 24 horas después: ola de críticas masivas y quejas por Reddit y redes sociales.
  • Segundo día: OpenAI restablece GPT‑4o para suscriptores Plus y ajusta límites y modos de modelo.
  • Posteriormente: promesas de mejoras de personalidad en GPT‑5 y compromisos de mayor previsibilidad.

Preguntas frecuentes

¿Por qué el descontento fue tan fuerte sólo por cambiar de modelo?
GPT‑4o representaba más que un modelo técnico: era cálido, empático y adaptado a los usuarios. Su eliminación repentina provocó una ruptura con la experiencia emocional que muchos valoraban.

¿Volverán permanentemente GPT-4o y otros modelos?
OpenAI planea mantenerlos mientras el uso lo justifique, prometiendo avisar con antelación ante cualquier retirada futura.

¿Los nuevos modos (Auto, Fast, Thinking) ya están disponibles?
Sí. Permiten mayor control sobre cómo responde GPT‑5, y están disponibles para suscriptores Plus.

¿GPT-5 es más preciso que GPT-4o?
Técnicamente sí: ofrece mejor rendimiento en codificación, razonamiento y menor alucinación. No obstante, la percepción de menor calidez y control arruinó la experiencia inicial.

Scroll al inicio