- HyperNova 60B es un modelo de IA español comprimido al 50% y disponible gratis en Hugging Face.
- Se basa en la tecnología CompactifAI, inspirada en computación cuántica, que reduce memoria y latencia.
- Compite en rendimiento con modelos como Mistral Large 3 y apunta a casos de uso empresariales y del sector público.
- Refuerza la apuesta europea por soluciones de IA soberanas y accesibles para empresas con menos recursos.
La inteligencia artificial avanza a un ritmo vertiginoso, pero los modelos de lenguaje de gran tamaño se han topado con un obstáculo claro: su enorme peso los hace inasumibles para muchas empresas. No todo el mundo puede permitir servidores con varias GPUs de gama alta ni asumir facturas constantes de cómputo en la nube.
En este contexto irrumpe HyperNova 60B, un modelo de IA de código abierto desarrollado por la startup española Multiverse Computing que busca rebajar esa barrera. Mediante una compresión agresiva, este sistema promete ofrecer capacidades de lenguaje avanzadas con muchos menos recursos de memoria y energía, manteniendo un nivel de precisión muy cercano al del modelo original en el que se basa.
Qué es HyperNova 60B y por qué está dando que hablar
HyperNova 60B es un modelo de lenguaje comprimido de gran escala orientado a entornos empresariales, de investigación y sector público. Nace como versión reducida del modelo gpt-oss-120B de OpenAI, pero con una particularidad clave: ha sido compactado hasta quedarse en unos 32 GB de tamaño, aproximadamente la mitad del modelo base.
Esta reducción del 50% permite que el modelo pueda ejecutarse en infraestructuras mucho más modestas que las que requieren los grandes LLM comerciales. Aunque sigue necesitando hardware potente, el salto es notable: se abren posibilidades para organizaciones que antes ni se planteaban operar un modelo de este calibre en sus propios servidores.
La versión más reciente, denominada HyperNova 60B 2602, incorpora además mejoras orientadas a tareas complejas de uso real, como una mejor compatibilidad con herramientas externas y entornos de codificación agentiva, donde el modelo interactúa con sistemas, terminales o aplicaciones de forma autónoma.
Todo ello se lanza en formato open source y gratuito, disponible para descarga directa en la plataforma Hugging Face. Este movimiento encaja con la estrategia de Multiverse Computing de posicionarse como proveedor de soluciones de IA “soberanas” para Europa, reduciendo la dependencia de grandes corporaciones tecnológicas extranjeras.
CompactifAI: la tecnología de compresión inspirada en computación cuántica
Detrás de HyperNova 60B está CompactifAI, la tecnología propia de Multiverse Computing para comprimir modelos de lenguaje. La compañía, especializada en aplicar técnicas de computación cuántica al mundo financiero, traslada ahora parte de ese conocimiento al ámbito de la optimización de redes neuronales.
CompactifAI aplica matemáticas de inspiración cuántica para analizar y reorganizar los parámetros del modelo. En lugar de limitarse a técnicas clásicas de cuantización que suelen degradar bastante el rendimiento, este enfoque se centra en preservar los componentes con mayor contenido de información y descartar o reestructurar aquellos que aportan menos.
Según explica la empresa, esta metodología permite alcanzar reducciones de tamaño extremas, de hasta un 95% de compresión con una pérdida de precisión en el entorno del 2-3% en determinados escenarios. Frente a ello, los estándares habituales de la industria se mueven en pérdidas del 20-30% cuando se intenta comprimir entre un 50% y un 60%, lo que sitúa a CompactifAI como una propuesta técnicamente muy agresiva.
En el caso concreto de HyperNova 60B, el modelo resultante conserva la arquitectura general y las capacidades de razonamiento avanzado del original, pero con un uso de memoria y una latencia significativamente menores. Esto se traduce en menos coste operativo y más facilidad para desplegarlo en entornos donde cada gigabyte de VRAM cuenta.
Esta forma de entender la compresión encaja con uno de los grandes objetivos de la compañía vasca: reducir las barreras de infraestructura que hoy frenan a muchos equipos de desarrollo a la hora de probar, ajustar e implementar modelos de IA potentes.
Rendimiento frente a gigantes como Mistral Large 3
Multiverse Computing no se limita a presentar HyperNova 60B como un modelo ligero; lo sitúa directamente en la liga de los grandes modelos europeos. Los primeros benchmarks internos indican que este LLM comprimido logra superar en diversos indicadores de rendimiento a Mistral Large 3, una de las referencias del mercado europeo desarrollada por la francesa Mistral AI.
Que un modelo comprimido logre igualar o superar a alternativas de tamaño completo es uno de los argumentos más llamativos del proyecto. Para muchas empresas, especialmente aquellas con recursos limitados, la combinación de rendimiento competitivo y menor presión sobre la infraestructura puede inclinar la balanza a favor de HyperNova 60B.
En tareas de razonamiento y aplicaciones de codificación avanzada, Multiverse señala mejoras sustanciales respecto a su versión anterior. El modelo ofrece un comportamiento destacable en pruebas como Tau2-Bench, Terminal Bench Hard o BFCL v4, diseñadas para evaluar la capacidad de agentes inteligentes que ejecutan código, interactúan con sistemas o resuelven problemas complejos.
La propia compañía describe el rendimiento de HyperNova 60B como “de nivel frontera” en términos de razonamiento, pero con requisitos de memoria, energía e infraestructura muy por debajo de lo habitual en esta gama, lo que encaja con su discurso de IA eficiente y pragmática.
Disponibilidad gratuita y modelo de acceso abierto
Uno de los puntos que más están llamando la atención en el ecosistema tecnológico es que HyperNova 60B se distribuye como modelo gratuito y de código abierto. Cualquier desarrollador, startup o institución puede descargarlo desde el perfil oficial de Multiverse Computing en Hugging Face y comenzar a experimentar sin licencias de uso de por medio.
Este enfoque encaja con una visión de democratización de la IA; no solo para grandes corporaciones con músculo financiero, sino también para pymes, equipos de investigación o administraciones públicas que buscan soluciones soberanas, alojadas en su propia infraestructura y sin dependencia de API externas.
La empresa ha señalado que su intención es continuar ampliando el catálogo de modelos comprimidos open source a lo largo del año, con distintos tamaños y orientaciones, de modo que se adapten tanto a sistemas empresariales complejos como a aplicaciones más acotadas o entornos con fuerte restricción de recursos.
Junto con los modelos, Multiverse promete proporcionar documentación y recursos de soporte para facilitar la adopción: guías de despliegue, ejemplos de integración, casos de uso y buenas prácticas para que el modelo no se quede en un experimento de laboratorio y pase a producción real.
Para quienes quieran ir un paso más allá, la compañía también plantea publicar casos de estudio en colaboración con empresas, mostrando de forma concreta qué puede hacerse con HyperNova 60B y qué ahorros o mejoras aporta frente a alternativas más pesadas o de pago por uso.
Ventajas y límites técnicos del modelo comprimido
Que HyperNova 60B sea un modelo comprimido no significa que pueda ejecutarse en cualquier máquina doméstica sin más. Aunque el tamaño de 32 GB supone un avance notable, seguir hablando de decenas de gigas de memoria implica que se necesita hardware robusto para sacarle partido.
Para una inferencia fluida, se estima que hará falta al menos una GPU en el rango de 40-48 GB de VRAM, especialmente si se quieren servir múltiples peticiones concurrentes o trabajar con contextos largos. Es una exigencia mucho más moderada que la de un modelo sin comprimir, pero todavía fuera del alcance de muchos equipos muy pequeños.
Esto obliga a las empresas a evaluar cuidadosamente el equilibrio entre latencia, precisión y coste. En algunos casos puede ser más interesante recurrir a versiones aún más ligeras —que la compañía planea lanzar más adelante— si el caso de uso no requiere el máximo nivel de detalle o capacidad de razonamiento.
Un aspecto relevante para muchos equipos técnicos es la facilidad de fine-tuning. Aunque Multiverse no ha detallado públicamente todos los pormenores de los procesos de ajuste, sí posiciona HyperNova 60B como un modelo “listo para producción” y adaptable a dominios específicos, algo especialmente atractivo para sectores como el financiero, el legal o la salud.
En cualquier caso, el ahorro en memoria y energía respecto al modelo de referencia se traduce en costes de hosting e inferencia más contenidos, un factor decisivo para startups y organizaciones que no pueden quemar presupuesto en infraestructura pero necesitan IA avanzada en su día a día.
Impacto en el ecosistema español y europeo de IA
El lanzamiento de HyperNova 60B refuerza la posición de España en el mapa europeo de la inteligencia artificial. Multiverse Computing, con sede en el País Vasco, ya era conocida por su trabajo en computación cuántica aplicada a las finanzas, y ahora se coloca como actor relevante en el desarrollo de modelos de lenguaje y su presencia en el MWC en Barcelona.
La startup vasca no opera en solitario: se ha ido expandiendo con oficinas en Estados Unidos, Canadá y varios países europeos, y presume de una cartera de clientes donde figuran nombres como Iberdrola, Bosch o el Banco Nacional de Canadá. Esa proyección internacional le da más peso a la hora de competir con firmas como Mistral AI.
Su discurso de “soluciones soberanas de IA” encaja además con la voluntad de la Unión Europea de reforzar su autonomía tecnológica frente a gigantes estadounidenses y chinos. La idea es que empresas e instituciones puedan desplegar modelos potentes en su propia infraestructura, bajo sus propias reglas y marcos regulatorios, sin depender de terceros extracomunitarios.
En España, Multiverse ha empezado a tejer alianzas con administraciones públicas. La compañía trabaja en una colaboración con el Gobierno de Aragón y ha contado con el apoyo de la Agencia Española de Transformación Tecnológica (SETT), que participó en una ronda de financiación previa, lo que refuerza el papel institucional en el impulso de esta tecnología.
Si se confirman las expectativas de crecimiento y las próximas rondas de inversión, la empresa podría convertirse en uno de los primeros unicornios tecnológicos del País Vasco, consolidando un polo de innovación en IA y computación avanzada fuera de los hubs habituales de Madrid y Barcelona.
Modelo de negocio, financiación y hoja de ruta
En paralelo al lanzamiento de HyperNova 60B, el sector financiero sigue de cerca los movimientos de Multiverse Computing. Distintas informaciones apuntan a que la startup estaría negociando una ronda de financiación de alrededor de 500 millones de euros, con una valoración que la situaría claramente en la categoría de soonicorn, a un paso del estatus de unicornio.
La compañía ha reconocido que mantiene conversaciones con potenciales inversores para una nueva ronda, aunque evita confirmar cifras de valoración o volumen exacto de la operación. También ha declinado detallar oficialmente los ingresos recurrentes anuales, si bien en el sector se manejan estimaciones que los sitúan en el entorno de los 100 millones de euros.
Aunque estos números estarían aún lejos de los gigantes como OpenAI, el posicionamiento de Multiverse resultaría más cercano a otros actores europeos de rápido crecimiento, como la propia Mistral AI. El foco, en cualquier caso, no está solo en los ingresos, sino en consolidar una línea de productos de IA comprimida y lista para producción que pueda escalar a distintos mercados.
En su hoja de ruta pública, la empresa se ha comprometido a lanzar más modelos comprimidos y versiones más ligeras a lo largo de 2026, adaptadas a contextos con restricciones de hardware todavía más severas. Junto a ello, planea seguir mejorando CompactifAI, afinando los algoritmos de compresión y ampliando su aplicación a otros tipos de modelos.
El éxito de esta estrategia dependerá en buena medida de la adopción práctica del ecosistema: cuántas empresas, centros de investigación y organismos públicos apuestan por desplegar HyperNova 60B o sus sucesores en entornos críticos, más allá de las pruebas de concepto iniciales.
Casos de uso y oportunidades para empresas y startups
HyperNova 60B se ha diseñado con un claro enfoque en entornos de negocio. La reducción de requisitos de memoria y coste operativo abre la puerta a un abanico de casos de uso en empresas europeas que hasta ahora se veían obligadas a depender de APIs externas o renunciar a ciertas capacidades de IA.
En el ámbito del SaaS B2B, por ejemplo, un proveedor de software puede integrar funciones de lenguaje natural avanzadas —resumen de documentos, generación de informes, análisis semántico— sin que la factura de infraestructura se dispare. El hecho de poder alojar el modelo on-premise o en una nube controlada mejora además el cumplimiento normativo y la protección de datos.
Para herramientas de productividad y asistentes especializados, disponer de un modelo comprimido y autoalojado evita el coste recurrente asociado a llamadas de API a terceros, algo relevante en soluciones de alto volumen de uso. También permite controlar con más detalle cómo se entrenan y ajustan los modelos con datos internos.
En automatización empresarial, HyperNova 60B puede intervenir en flujos que implican lectura y procesamiento de correos electrónicos, contratos, informes técnicos o datos internos, con la ventaja de que la información sensible no sale de la organización. Este punto es especialmente crítico en sectores regulados como banca, seguros o sanidad.
Por último, en productos verticales (legaltech, healthtech, fintech, etc.), la posibilidad de ajustar el modelo a dominios concretos resulta clave para lograr respuestas más fiables y alineadas con la terminología de cada industria, algo que muchas organizaciones prefieren hacer sobre modelos que controlan directamente.
En conjunto, HyperNova 60B se presenta como una apuesta española por una IA avanzada, eficiente y más accesible, que intenta equilibrar potencia y costes en un mercado dominado por modelos cada vez más grandes y caros de operar. Su enfoque de compresión inspirada en computación cuántica, su carácter abierto y la atención que está recibiendo en Europa lo convierten en un caso a seguir de cerca por cualquiera que esté explorando cómo incorporar modelos de lenguaje en productos y servicios con criterios realistas de presupuesto e infraestructura.

