S O Y R E P O R T E R O

Multiverse Computing comprime modelos de lenguaje para acercar IA avanzada al uso empresarial

La startup española Multiverse ofrece HyperNova 60B comprimido, reduce memoria y latencia, y avanza hacia IA soberana.

Publicado por: admin (soyreportero)

2026/02/25 | 00:15

Calificación

0 / 5 (0 votos)

Reportes

0

Multiverse Computing comprime modelos de lenguaje para acercar IA avanzada al uso empresarial

Fuente: https://images.pexels.com/photos/17485847/pexels-photo-17485847.png?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

Los grandes modelos de lenguaje tienen un problema tan simple como costoso: son grandes. Y ese “grandes” no es una metáfora. En la práctica, significa más memoria, más latencia y facturas de inferencia que se disparan justo cuando una empresa quiere pasar de la demo al uso real. En ese terreno, la startup española Multiverse Computing está intentando cerrar la brecha entre lo que los modelos punteros prometen y lo que las compañías pueden desplegar sin que el presupuesto se resienta.

Su apuesta se llama CompactifAI, una tecnología de compresión inspirada en la computación cuántica que la empresa vasca ha aplicado a modelos liberados por OpenAI. La idea es directa: hacer modelos más pequeños, pero “casi igual de potentes y precisos”, según la propia Multiverse. El resultado más visible es HyperNova 60B, cuyo enfoque no es competir solo por tamaño, sino por eficiencia operativa.

Desde hoy, los desarrolladores pueden acceder gratis en Hugging Face a una versión más nueva del modelo: HyperNova 60B 2602. Multiverse afirma que este lanzamiento mejora el soporte para tool calling y para agentic coding, dos capacidades especialmente relevantes porque suelen elevar el coste de inferencia cuando el modelo debe encadenar acciones, llamadas a herramientas o tareas de programación de manera más autónoma.

En cifras, la compañía destaca un dato fácil de entender: HyperNova 60B ocupa 32GB, aproximadamente la mitad del tamaño del modelo del que deriva, gpt-oss-120b de OpenAI. Además, presume de menor uso de memoria y menor latencia, dos variables que, en producción, suelen marcar la diferencia entre un piloto prometedor y un sistema que realmente escala.

Multiverse también se mide con nombres europeos de peso. Dice haber superado con HyperNova 60B a Mistral Large 3, uno de los modelos de Mistral AI, el “decacorn” francés. Y, más allá de la rivalidad técnica, ambas compañías comparten un patrón: expansión internacional y foco empresarial. Multiverse ya tiene oficinas en Estados Unidos, Canadá y distintos puntos de Europa, y cita como clientes a Iberdrola, Bosch y el Bank of Canada.

En paralelo, el contexto geopolítico se cuela en la conversación. La empresa se posiciona como capaz de “entregar soluciones soberanas a lo largo de toda la pila de IA”, un mensaje que encaja con la demanda creciente de alternativas a la tecnología estadounidense. En esa línea, recientemente logró una colaboración con el gobierno regional de Aragón, y la Agencia Española para la Transformación Tecnológica (SETT) participó en su Serie B de 215 millones de dólares el año pasado. Desde sus inicios, además, Multiverse ha contado con apoyo del País Vasco, que podría estar cerca de ver su primer unicornio.

Sobre su situación financiera, circulan rumores de una nueva ronda de financiación de 500 millones de euros a una valoración superior a 1.500 millones. En una declaración compartida con TechCrunch, la compañía confirmó que mantiene conversaciones activas con potenciales inversores, aunque consideró prematuro comentar valoración o tamaño de la ronda. También declinó pronunciarse sobre informes que sitúan su ARR en 100 millones de euros en enero. Si se confirmara, seguiría lejos del ARR de OpenAI (20.000 millones de dólares), pero ayudaría a explicar por qué Multiverse quiere jugar una partida clave: hacer que la IA avanzada sea más accesible, más eficiente y, para muchos clientes europeos, más “soberana”.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.