HyperNova 60B: la apuesta española por comprimir los grandes modelos y abaratar la Inteligencia Artificial sin renunciar a potencia

La carrera de la Inteligencia Artificial generativa no se libra solo en quién entrena el modelo más grande. También —y cada vez más— en quién consigue que esa potencia sea utilizable y pagable. En un mercado donde desplegar un modelo avanzado puede implicar infraestructuras costosas, consumo energético elevado y facturas difíciles de justificar para muchas pymes, una startup española ha puesto sobre la mesa un mensaje directo: se puede recortar tamaño, memoria y latencia sin tirar por la borda el rendimiento.

La protagonista es Multiverse Computing, que ha publicado en Hugging Face el modelo HyperNova 60B, una versión comprimida y enfocada a eficiencia cuyo objetivo declarado es hacer más accesibles los modelos de lenguaje de gran tamaño. La compañía lo enmarca dentro de CompactifAI, su tecnología de compresión “inspirada” en enfoques de computación cuántica —aunque aplicada sobre hardware convencional— y orientada a reducir el peso de los modelos para facilitar su despliegue.

Un “60B” que, en realidad, va de eficiencia

El nombre puede llevar a confusión a quien no esté familiarizado con esta jerga: HyperNova 60B no es un “modelo pequeño”. La propia ficha técnica habla de una arquitectura base derivada de gpt-oss-120b, con 59.000 millones de parámetros, pero con un detalle crucial: solo 4.800 millones estarían activos en inferencia, un enfoque que busca eficiencia en el uso real. A esto se suma el uso de cuantización MXFP4 y una configuración de “esfuerzo de razonamiento” ajustable (bajo, medio, alto), pensada para equilibrar coste y calidad según la tarea.

El impacto práctico se resume en una frase que interesa especialmente a equipos técnicos y a empresas que no cuentan con GPUs de gama “frontera”: el modelo está planteado para funcionar con menos de 40 GB de VRAM, lo que lo acerca a escenarios más realistas de despliegue.

La versión 2602 y el dato que más llama la atención: 32 GB

El movimiento no se ha quedado en una primera publicación. Multiverse anunció la apertura completa de acceso a HyperNova 60B 2602, describiéndolo como una versión “comprimida al 50 %” del modelo base, y remarcando mejoras en tool calling (capacidad de usar herramientas y funciones) y en codificación agéntica, un uso cada vez más común en automatización y asistentes de desarrollo.

En términos de “tamaño en disco”, medios especializados y la propia compañía han destacado un número fácil de entender: 32 GB, aproximadamente la mitad de lo que ocuparía el modelo del que deriva. En el mundo real, esta reducción puede traducirse en menos memoria exigida, menos latencia y un despliegue menos caro.

¿Por qué importa esto fuera del mundo tech?

Porque hoy muchos proyectos de IA se frenan por una razón simple: cuesta demasiado operarlos. No solo por el precio del entrenamiento —que sigue siendo un coto casi exclusivo de grandes compañías—, sino por el coste de ejecutar el modelo cada día: servidores, GPUs, electricidad, escalado y mantenimiento.

En ese contexto, una tecnología de compresión que permita ejecutar modelos potentes con menos recursos tiene un efecto evidente: abre la puerta a que más empresas puedan hacer IA “en casa”, con su infraestructura, o en nubes más contenidas, sin depender siempre de servicios externos a precio variable. Para sectores tradicionales (industria, energía, agroalimentario, logística, administración pública) el mensaje es atractivo: más control, menos factura.

Comparativa con Mistral Large 3: lo que dice la empresa y lo que conviene leer con calma

Multiverse ha presentado HyperNova 60B como un modelo competitivo frente a alternativas populares en el ecosistema europeo, citando comparaciones con Mistral Large 3 en rendimiento y eficiencia. En su comunicación corporativa, la empresa afirma mejoras relevantes en memoria y velocidad, además de una ventaja en “razonamiento” bajo su metodología de evaluación.

Este tipo de comparativas, sin embargo, conviene interpretarlas con criterio: en Inteligencia Artificial, el rendimiento depende del benchmark, del tipo de tareas y del entorno de ejecución. Aun así, el hecho noticioso no es solo “quién gana a quién”, sino que una empresa española esté empujando un enfoque que, si se consolida, podría cambiar el cálculo económico de muchos despliegues.

Un modelo abierto y con licencia permisiva

Otro punto que explica el ruido alrededor de HyperNova 60B es su enfoque de distribución. La ficha en Hugging Face indica licencia Apache 2.0, un detalle importante para uso empresarial porque es una licencia permisiva y ampliamente aceptada para integrar software en productos y servicios.

Además, la compañía ha señalado su intención de publicar más modelos comprimidos a lo largo de 2026, lo que sugiere que su estrategia no es un único lanzamiento, sino una línea de producto basada en eficiencia y “deployability”.

Multiverse Computing, en plena aceleración

El lanzamiento llega en un momento de expansión para Multiverse Computing. Medios económicos han informado de que la empresa estaría negociando una ronda de financiación de alrededor de 500.000.000 €, una operación que podría situar su valoración por encima de los 1.500.000.000 €, aunque se trataría de conversaciones aún en curso. En paralelo, se ha publicado que la compañía ha acelerado su presencia internacional y que cuenta con clientes industriales y financieros de gran tamaño.

En la práctica, el mercado está empezando a poner dinero donde hasta hace poco solo había promesas: la eficiencia como ventaja competitiva. Y eso, para Europa, tiene una lectura añadida: en un escenario dominado por modelos entrenados en Estados Unidos y China, la compresión y el despliegue eficiente se están convirtiendo en una vía realista para ganar terreno.

La pregunta clave: ¿esto puede “abaratar” la IA de verdad?

La respuesta honesta es: puede ayudar mucho, pero no es magia. HyperNova 60B no elimina los costes de la IA; lo que propone es rebajarlos en el punto que más duele a muchas empresas: la inferencia (el uso diario). Si se necesita menos memoria, menos infraestructura y menos energía, el gasto se reduce. Y si, además, el modelo se integra mejor con herramientas y flujos agénticos, se multiplica su utilidad en tareas prácticas (automatización, atención al cliente, análisis documental, soporte a desarrolladores, etc.).

Para el tejido empresarial español —incluyendo el de provincias donde muchas compañías no pueden permitirse un despliegue “a lo Silicon Valley”— este enfoque puede resultar especialmente relevante: la IA deja de ser un lujo y se convierte, poco a poco, en una herramienta posible.


Preguntas frecuentes

¿Qué significa que HyperNova 60B sea un modelo “comprimido” y por qué reduce costes?
Significa que se ha reducido su tamaño y sus requisitos de memoria para que pueda ejecutarse con menos recursos. En general, menos memoria y menos cómputo suelen traducirse en menor coste de infraestructura y menor latencia en producción.

¿En qué hardware puede ejecutarse HyperNova 60B según su ficha técnica?
El modelo está diseñado para funcionar con menos de 40 GB de VRAM en GPU, lo que lo acerca a configuraciones más accesibles que las necesarias para modelos “frontera”.

¿HyperNova 60B es open source y se puede usar en proyectos comerciales?
La ficha de Hugging Face indica licencia Apache 2.0, una licencia permisiva que normalmente facilita el uso en entornos comerciales (siempre respetando los términos concretos).

¿Para qué casos de uso está pensado HyperNova 60B 2602?
Se orienta a tareas generales de conversación y razonamiento, programación y flujos con herramientas (tool calling), como chatbots, sistemas RAG y automatizaciones tipo “agentes”.

vía: HiperNova 60B

Scroll al inicio