OpenAI ha dado un paso importante en su plataforma para desarrolladores con la puesta en primer plano de GPT-5.4, un modelo que la compañía presenta como su sistema frontier más capaz hasta la fecha para trabajo profesional, programación y automatización de tareas complejas. Más allá del habitual salto de versión, lo relevante en este caso es que la empresa no lo vende solo como una mejora incremental de calidad, sino como la nueva pieza central para construir asistentes y agentes capaces de encadenar herramientas, analizar grandes volúmenes de información y ejecutar flujos de varios pasos con más fiabilidad.
Según la documentación oficial de OpenAI, GPT-5.4 pasa a ser el modelo por defecto para trabajo general y para la mayoría de las tareas de código. También reemplaza a GPT-5.2 en la API y a GPT-5.3-Codex en Codex, una señal clara de hacia dónde quiere empujar la compañía a su ecosistema de desarrolladores. La idea es sencilla: en lugar de obligar a elegir entre un modelo fuerte en razonamiento y otro especializado en programación, OpenAI intenta unificar ambos mundos en una sola opción más versátil.
El mensaje de OpenAI gira alrededor de una promesa muy concreta: menos iteraciones, menos llamadas a herramientas y menor coste operativo en cargas complejas. La empresa asegura que GPT-5.4 mejora en programación, comprensión documental, uso de herramientas, seguimiento de instrucciones, tareas multimodales y flujos agenticos de varios pasos. En otras palabras, no se trata únicamente de responder mejor, sino de trabajar mejor dentro de sistemas donde el modelo tiene que buscar, verificar, usar funciones, revisar resultados y seguir avanzando hasta completar una tarea.
Una de las novedades más llamativas es su ventana de contexto de hasta 1.050.000 tokens, una cifra que sitúa a GPT-5.4 en la liga de los modelos pensados para analizar bases de código enteras, colecciones extensas de documentos o trayectorias largas de agentes en una sola petición. Esto no significa que todo vaya a ser barato ni instantáneo, porque OpenAI también diferencia precios y límites para peticiones por debajo y por encima de 272.000 tokens, pero sí abre la puerta a flujos mucho más ambiciosos en entornos corporativos, analíticos y de desarrollo.
Otra de las claves está en las herramientas. GPT-5.4 incorpora mejoras en tool_search, que permiten cargar solo las definiciones realmente necesarias cuando un ecosistema de herramientas es muy grande. También estrena capacidades nativas de uso del ordenador en la línea principal de la familia GPT-5, algo especialmente relevante para agentes que deban interactuar con interfaces, navegar por aplicaciones o validar si una acción realmente ha funcionado. A eso se suma el soporte nativo para compaction, pensado para conservar el contexto importante durante trayectorias largas. Todo este paquete apunta a un objetivo muy claro: que el modelo no sea solo un generador de texto, sino un operador útil dentro de flujos automatizados reales.
OpenAI también pone el foco en la disciplina de uso. GPT-5.4 mantiene controles como reasoning.effort, con niveles que van desde none, que es el valor por defecto, hasta xhigh, y conserva el parámetro de verbosity en niveles bajo, medio y alto. Sobre el papel, esto permite ajustar latencia, profundidad de razonamiento y extensión de las respuestas con bastante más precisión que en generaciones anteriores. La compañía advierte además de que parámetros como temperature, top_p y logprobs solo son compatibles cuando el esfuerzo de razonamiento está configurado en none, un detalle técnico que puede evitar más de un error en producción.
Para quienes ya trabajan con la API, otro cambio de fondo es la insistencia de OpenAI en empujar a los desarrolladores hacia Responses API. La razón principal es que esta API permite reutilizar la cadena de pensamiento entre turnos mediante el paso de contexto previo, algo que, según la propia compañía, mejora la inteligencia efectiva del sistema, reduce tokens de razonamiento, eleva la tasa de acierto de caché y baja la latencia. En ese marco también aparece el nuevo parámetro phase, recomendado para flujos largos o intensivos en herramientas, con fases como commentary para pasos intermedios y final_answer para la respuesta final. Dicho de forma menos técnica: OpenAI está afinando no solo el modelo, sino la forma correcta de orquestarlo.
En rendimiento, la empresa acompaña el lanzamiento con varias comparativas. En la entrada oficial de presentación, GPT-5.4 aparece igualando o superando a GPT-5.3-Codex en SWE-Bench Pro con un 57,7 %, y mostrando mejoras claras frente a GPT-5.2 en pruebas como OSWorld-Verified, donde alcanza un 75,0 % frente al 47,3 % de la versión anterior. En BrowseComp, una evaluación vinculada al uso de herramientas y navegación, GPT-5.4 marca un 82,7 %. Son cifras que, sin sustituir una validación independiente en cada caso de uso, sí ayudan a entender por qué OpenAI lo sitúa como la opción por defecto para tareas exigentes.
La lectura de fondo es clara. OpenAI ya no está compitiendo solo en la carrera por el chatbot más brillante o la respuesta más convincente. Está compitiendo por convertirse en la infraestructura estándar sobre la que empresas y desarrolladores monten asistentes de trabajo, automatizaciones complejas, sistemas de búsqueda, entornos de programación y agentes con capacidad real de ejecución. GPT-5.4, con su mezcla de contexto largo, uso de herramientas, programación sólida y control más fino del comportamiento, parece diseñado exactamente para ese terreno.
Preguntas frecuentes
¿Qué cambia al migrar de Chat Completions a Responses API con GPT-5.4?
El cambio más importante es que Responses API permite conservar y reutilizar la cadena de pensamiento entre turnos, lo que según OpenAI mejora el rendimiento, reduce tokens de razonamiento y disminuye la latencia. Además, es el enfoque que la compañía recomienda para sacar más partido a GPT-5.4 en flujos largos y con herramientas.
¿Para qué sirve una ventana de contexto de 1.050.000 tokens en GPT-5.4?
Sirve para trabajar con bases de código completas, colecciones documentales extensas o trayectorias largas de agentes sin tener que trocear tanto la información. Es especialmente útil en análisis empresarial, programación, auditoría documental y automatización avanzada.
¿Qué modelo conviene elegir entre GPT-5.4, GPT-5.4 Pro, GPT-5-mini y GPT-5-nano?
OpenAI sitúa GPT-5.4 como la opción general para trabajo complejo, GPT-5.4 Pro para problemas especialmente difíciles que requieren más cómputo, GPT-5-mini para equilibrar coste, velocidad y capacidad, y GPT-5-nano para tareas masivas y sencillas de clasificación o seguimiento de instrucciones.
¿Cuándo interesa usar reasoning.effort en none, medium o high?
OpenAI recomienda empezar con none cuando se busca rapidez y baja latencia, especialmente al migrar desde modelos como GPT-4.1, y subir a medium o high en asistentes de investigación, agentes de largo recorrido o tareas que requieran verificación y síntesis compleja
vía: GPT 5.4








