OpenAI ha empezado a corregir varias de las quejas más repetidas sobre GPT-5: los límites de uso, la selección de modelos y una “personalidad” percibida como menos cálida que en versiones anteriores. Según un documento de soporte y mensajes públicos de la compañía, los usuarios de pago ya pueden volver a elegir GPT-4o, o3 y otros modelos “legacy” desde el selector de modelos, mientras que GPT-5 incorpora modos de funcionamiento más claros y un mayor cupo de peticiones en su variante de razonamiento profundo.
Qué cambia desde hoy
- Modelos restaurados para clientes de pago. En el selector aparecen de nuevo GPT-4o, o3 y más opciones históricas bajo el apartado de legacy models.
- Modos en GPT-5: ahora se puede elegir entre Auto, Fast (respuestas inmediatas) y Thinking (razonamiento más profundo).
- Thinking mini: razonamiento más rápido con menor coste de capacidad.
- Pro: orientado a “inteligencia de nivel investigación”.
- Más capacidad en GPT-5 Thinking (Plus): el límite semanal sube a 3.000 mensajes para suscriptores ChatGPT Plus. Al agotar ese cupo, hay capacidad adicional con Thinking mini.
- Contexto ampliado: GPT-5 Thinking maneja ventanas de hasta 196.000 tokens, útil para documentos largos, análisis complejos o sesiones extensas.
- Modelos adicionales visibles: los usuarios de pago pueden activar en la web el ajuste “Show additional models” para añadir o3, o4-mini, 4.1 y GPT-5 Thinking mini al selector. (OpenAI indica que 4.5 queda restringido a Pro por disponibilidad de GPU).
Una “personalidad” menos fría
En un mensaje en X, Sam Altman confirmó que OpenAI trabaja en una actualización del “tono” de GPT-5. El objetivo es que el sistema se perciba más cálido, sin volver a la “afirmatividad” de GPT-4o que algunos usuarios echaban de menos. La compañía también explora personalizar el estilo por usuario, de modo que cada cuenta pueda ajustar la “voz” del modelo a sus preferencias.
Por qué importa
Para empresas y creadores, estas novedades atacan tres fricciones prácticas:
- Control y previsibilidad. Los modos Fast y Thinking permiten decidir entre latencia y profundidad según la tarea (soporte, redacción, análisis, debugging, etc.).
- Continuidad operativa. La vuelta de modelos legacy facilita reproducir flujos que dependían de respuestas y comportamientos previos, clave en automatizaciones o agentes en producción.
- Capacidad realista. Elevar el límite de GPT-5 Thinking a 3.000 mensajes/semana en Plus y ofrecer “colchón” con Thinking mini reduce cuellos de botella en semanas críticas o picos de trabajo.
Qué pueden hacer los equipos desde ya
- Revisar despliegues y prompts que se ajustaban a 4o u otros modelos: con los legacy de vuelta, se puede comparar calidad, latencia y coste antes de fijar un estándar.
- Seleccionar modo por tarea:
- Fast para chat operativa, Q&A interno, borradores.
- Thinking para planificación, razonamiento, refactor o análisis de datos/documentos.
- Auto si se prefiere delegar la elección al sistema.
- Aprovechar la ventana de 196k tokens para auditorías, due diligence, estudios de mercado o manuales técnicos en una sola pasada, con citas y resúmenes estructurados.
- Definir “tono” de marca a la espera de la personalización per-usuario: crear guías de estilo y system prompts listos para cuando OpenAI libere ese ajuste fino.
Lo que queda por ver
- Disponibilidad y coste: OpenAI advierte que los límites podrían ajustarse según uso; conviene monitorizar consumos y latencias.
- Personalización de personalidad: la gran promesa es un ajuste por usuario o por espacio de trabajo; habrá que ver cómo se controla, qué granulado ofrece y qué implicaciones tiene en seguridad y compliance.
- Ecosistema y compatibilidad: aunque los legacy vuelven al selector, no todas las APIs y SDK exponen el mismo catálogo al mismo tiempo; los integradores deben validar entornos (web, móvil, API) por separado.
En resumen: OpenAI está reequilibrando control del usuario, capacidad y experiencia. La reaparición de modelos clásicos y los nuevos modos en GPT-5 ayudan a operar con menos fricción y a elegir el comportamiento del sistema. Si la promesa de una personalidad ajustable por usuario se materializa, podría ser el siguiente gran paso para alinear la IA generativa con la identidad y necesidades de cada equipo.
vía: notas OpenAI