OPT-175B: el LLM abierto con el que Meta retó a GPT-3

En mayo de 2022 Meta hizo algo que OpenAI no había hecho con GPT-3: liberar los pesos de un modelo de lenguaje gigante. El modelo se llamaba OPT-175B (Open Pre-trained Transformer), tenía 175.000 millones de parámetros como GPT-3 y se podía descargar bajo una licencia restringida a investigación. Aquel movimiento, junto al sistema Alpa que permitía servirlo en GPUs no necesariamente de última generación, marcó el primer paso serio hacia un mundo de LLM abiertos.

Cuatro años después, OPT-175B ya no es el modelo más usado, pero sigue siendo la referencia que abrió la puerta a Llama, Mistral, DeepSeek o los recientes gpt-oss-120b y gpt-oss-20b de OpenAI. Repasamos qué es, cómo se ejecuta y por qué su lanzamiento fue tan importante.

Qué es OPT-175B y en qué se diferencia de GPT-3

OPT-175B es la versión grande de la familia OPT (Open Pre-trained Transformer) que Meta AI publicó en 2022. Iguala a GPT-3 en escala (175.000 millones de parámetros) y aprende sobre un corpus público similar, con la diferencia de que sus pesos se pueden solicitar y descargar. Hablamos de un modelo capaz de completar texto en lenguaje natural, escribir código, contestar preguntas, traducir y generar diálogos, todo eso a partir de un único transformer entrenado sobre cientos de miles de millones de tokens.

El detalle clave no es la potencia bruta, que en 2026 ha quedado superada con creces, sino el cambio de filosofía. Hasta entonces los grandes laboratorios trataban a sus LLM como cajas negras de pago: GPT-3 solo se usaba pagando por token a través de la API de OpenAI. Meta rompió esa lógica al publicar pesos, código de entrenamiento y un paper detallado con el log completo del entrenamiento, errores incluidos.

Si quieres entender mejor cuánto «sabe» realmente un modelo de este tamaño, este otro análisis explica cuánta información memoriza un LLM frente a lo que generaliza.

Alpa, el motor open source que permite servirlo

Alpa es un sistema de código abierto pensado para entrenar y servir redes neuronales muy grandes con pocas líneas de código. Lo desarrollaron en el Sky Lab de UC Berkeley y desde entonces se han sumado contribuyentes de Google, Amazon, AnyScale y otras compañías. Algunas de las técnicas que usa, como el paralelismo automático entre etapas, se publicaron en OSDI 2022.

La gracia de Alpa para OPT-175B está en cómo reparte el modelo entre GPUs. En lugar de exigir tarjetas de última generación con 80 GB de memoria, su backend permite trocear el modelo entre varias GPUs más antiguas y modestas, como V100, T4 o M60. Eso lo hace mucho más asequible para grupos de investigación que no tienen presupuesto para una granja de A100 nuevas.

Cuántas GPUs hacen falta para mover OPT-175B

El listón mínimo está en 350 GB de memoria GPU agregada en el clúster para inferencia. Esa cifra incluye los pesos del modelo y un margen para contexto y operaciones intermedias. Con A100 de 80 GB bastan cinco tarjetas (5 × 80 GB = 400 GB). Con V100 de 16 GB necesitas 22 GPUs (22 × 16 = 352 GB), y con T4 de 16 GB el número escala a 24-25.

Si te interesa el detalle de qué cambia entre generaciones de GPU para IA, en RevistaCloud hicieron un análisis muy técnico sobre A100, H100 y H200 que ayuda a poner en contexto por qué un modelo como OPT-175B sigue siendo caro de servir.

Para abaratar la factura ha aparecido toda una corriente de modelos «comprimidos» que renuncian a parte del tamaño a cambio de eficiencia. Un ejemplo es HyperNova 60B, una propuesta española que reduce parámetros sin sacrificar demasiada calidad.

Licencia: «open» con asterisco

Aquí está el matiz que conviene tener claro. El servicio público de Alpa con OPT-175B es gratuito y se rige por su licencia open source. Sin embargo, el uso del propio modelo OPT-175B se rige por la licencia OPT-175B de Meta, que limita el uso a fines de investigación. No puedes integrarlo sin más en un producto comercial.

Esa licencia parcial ha sido superada por proyectos posteriores. Llama 2 y Llama 3 ya admiten uso comercial con condiciones, los nuevos gpt-oss de OpenAI van bajo licencia Apache 2.0 y la familia Gemma 4 de Google también opta por Apache 2.0. OPT marcó la dirección, pero las licencias verdaderamente abiertas llegaron después.

Por qué OPT-175B sigue importando en 2026

Hoy nadie pone OPT-175B en producción. Existen alternativas más eficientes y con licencias más permisivas. Pese a eso, el modelo conserva un papel doble.

  • Referencia académica: el paper de OPT documentó por primera vez de forma honesta los problemas reales del entrenamiento a gran escala (divergencias, reinicios, decisiones de hiperparámetros), y sigue citado en cualquier curso serio sobre LLM.
  • Punto de partida histórico: sin la decisión de Meta de liberar pesos en 2022 cuesta imaginar el calendario actual de Llama, Mistral, DeepSeek y compañía.
  • Plataforma de pruebas: Alpa y OPT-175B se siguen usando en investigación para experimentar con paralelismo, ajustes finos y evaluación de seguridad antes de tocar modelos en producción.

Preguntas frecuentes sobre OPT-175B

¿Qué es exactamente un modelo de lenguaje?

Un modelo de lenguaje es una distribución de probabilidad sobre secuencias de palabras: dado un texto, predice qué palabra es la más probable a continuación. Esa habilidad básica sirve para autocompletar correo, mantener una conversación con un chatbot, traducir o escribir código.

¿OPT-175B es realmente equivalente a GPT-3?

Tiene el mismo tamaño en parámetros (175B) y un rendimiento comparable en muchas tareas zero-shot, según el paper original de Meta. GPT-3 ha recibido muchas más actualizaciones y refinamientos comerciales desde 2022, así que la comparación directa hoy ya no es del todo justa.

¿Puedo usar OPT-175B en un producto comercial?

No directamente. La licencia de Meta para OPT-175B restringe su uso a fines de investigación. Para casos comerciales conviene mirar Llama 2/3, los modelos gpt-oss de OpenAI, Gemma 4 de Google o Mistral, todos con licencias más permisivas.

¿Hace falta sí o sí una A100 para ejecutarlo?

No. La gracia de Alpa es que reparte el modelo entre GPUs más modestas. Puedes mover OPT-175B con 22 V100 de 16 GB, con varias T4 o incluso con tarjetas más antiguas, siempre que la suma de memoria GPU supere los 350 GB.

¿Qué herramientas alternativas hay para servir LLM grandes?

Además de Alpa, hoy hay otras opciones como vLLM, TensorRT-LLM, llama.cpp, SGLang y Hugging Face Text Generation Inference. Cada una cubre un escenario distinto: GPU de gran capacidad, CPU local, despliegue distribuido o cuantización agresiva.

Scroll al inicio