Los nuevos modelos de pesos abiertos superan a muchos modelos propietarios en razonamiento, eficiencia y seguridad, y se liberan bajo licencia Apache 2.0 para su libre uso en investigación y producción
En un movimiento inesperado que redefine su postura respecto a la comunidad open source, OpenAI ha anunciado el lanzamiento de gpt-oss-120b y gpt-oss-20b, sus dos primeros modelos de lenguaje con pesos abiertos desde la publicación de GPT-2 en 2019. Ambos modelos están disponibles de forma gratuita bajo la licencia Apache 2.0 y apuntan a democratizar el acceso a modelos avanzados de IA, permitiendo su ejecución local sin necesidad de APIs ni conexión a internet.
Una nueva era de libertad para desarrolladores e investigadores
Los modelos gpt-oss están diseñados para rendir al más alto nivel en tareas de razonamiento, codificación y uso de herramientas, todo ello con un enfoque explícito en eficiencia y seguridad. Según OpenAI, el modelo gpt-oss-120b, con arquitectura Mixture-of-Experts y 117.000 millones de parámetros totales, es capaz de igualar el rendimiento del modelo o4-mini en tareas de razonamiento complejo, ejecutándose con fluidez en una única GPU de 80 GB. Su hermano menor, gpt-oss-20b, con 21.000 millones de parámetros, está optimizado para dispositivos edge con apenas 16 GB de memoria.
Este enfoque representa un giro estratégico significativo: por primera vez desde que consolidó su posición con modelos propietarios como GPT-3 y GPT-4, OpenAI se suma a la tendencia de apertura impulsada por actores como Meta (con LLaMA) y Mistral. Los modelos están ya disponibles para descarga en Hugging Face, cuantizados para facilitar su ejecución incluso en entornos limitados.
Comparables —o superiores— a modelos propietarios
Ambos modelos han sido entrenados con técnicas avanzadas de preentrenamiento y postentrenamiento, incluyendo refuerzo por aprendizaje (RL) y ajuste fino supervisado, siguiendo el mismo enfoque que los modelos o-series de OpenAI. El rendimiento en benchmarks estándar (como MMLU, AIME y HealthBench) ha sorprendido incluso a la propia compañía:
- gpt-oss-120b supera a o3-mini e iguala a o4-mini en resolución de problemas complejos y codificación competitiva.
- gpt-oss-20b, pese a su menor tamaño, también se sitúa por encima de o3-mini en matemáticas avanzadas y tareas médicas.
Ambos modelos cuentan con capacidades destacadas de chain-of-thought (CoT), razonamiento con niveles ajustables de complejidad y uso eficaz de herramientas, como ejecución de código o búsqueda web.
Seguridad y responsabilidad desde el diseño
OpenAI ha querido enviar un mensaje claro: la apertura no está reñida con la seguridad. Por ello, los modelos gpt-oss han sido sometidos a evaluaciones exhaustivas bajo su marco de Preparedness, incluyendo pruebas con versiones adversarias ajustadas para evaluar posibles usos maliciosos. Además, se ha lanzado un Red Teaming Challenge con un fondo de premios de 500.000 dólares para detectar posibles fallos de seguridad, con participación abierta a investigadores de todo el mundo.
Como parte de este esfuerzo, OpenAI ha colaborado con instituciones como AI Sweden, Orange o Snowflake para probar aplicaciones en entornos reales, incluyendo despliegues on-premise con requisitos estrictos de privacidad.
Arquitectura puntera y facilidad de integración
Los modelos utilizan atención localmente dispersa, multi-query attention agrupada y codificación posicional Rotary (RoPE), permitiendo una longitud de contexto de hasta 128.000 tokens. Este amplio contexto es ideal para flujos de trabajo agentes (agentic workflows) y tareas de inferencia largas o complejas.
OpenAI también ha lanzado implementaciones de referencia en PyTorch, Metal de Apple, y herramientas auxiliares en Python y Rust para facilitar su adopción. Ya están disponibles en múltiples plataformas como Azure, AWS, Hugging Face, Vercel, Cloudflare, LM Studio, llama.cpp, OpenRouter y muchas más.
En el caso del modelo más pequeño, Microsoft ha optimizado su ejecución en dispositivos Windows mediante ONNX Runtime y lo ha integrado en Foundry Local y Visual Studio Code, permitiendo desarrollo e inferencia local sin necesidad de infraestructura adicional.
¿Por qué importa este lanzamiento?
Este anuncio representa un paso clave en la evolución del ecosistema de IA abierta. OpenAI, criticada durante años por su giro hacia modelos cerrados tras GPT-2, responde ahora con una propuesta sólida que pone herramientas avanzadas en manos de desarrolladores, investigadores, gobiernos y empresas de todo el mundo.
El uso de una licencia permisiva como Apache 2.0 elimina barreras legales para proyectos comerciales y académicos, fomentando la innovación en sectores que antes no podían permitirse acceder a modelos propietarios.
En palabras de Noam Brown, investigador destacado en el campo de la IA, “esto abre el camino hacia un ecosistema multipolar de inteligencia artificial”.
Un futuro más abierto, pero con cautela
Aunque OpenAI no se convierte aún en una organización completamente open source, este paso marca un cambio de rumbo significativo. El lanzamiento de los modelos gpt-oss-120b y gpt-oss-20b no solo ofrece una alternativa potente a los modelos cerrados, sino que establece un nuevo estándar de transparencia, seguridad y accesibilidad.
Con el control total sobre la inferencia, la posibilidad de personalización y despliegue local, y un rendimiento que rivaliza con lo mejor del mercado, gpt-oss podría convertirse en el punto de inflexión que la comunidad de desarrolladores estaba esperando.
Disponibles para descargar en Hugging Face y en GitHub
vía: openai