El futuro es la IA Local: Multiverse revoluciona la industria con modelos comprimidos que protegen tu privacidad.
La startup española Multiverse Computing lanza una tecnología que comprime modelos de IA para funcionar localmente sin internet.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/17485706/pexels-photo-17485706.png?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
La revolución silenciosa de la IA: el poder vuelve a tu dispositivo
En un ecosistema tecnológico donde la dependencia de la nube y los grandes centros de datos es casi absoluta, la inestabilidad financiera en la cadena de suministro de la IA está encendiendo las alarmas. Con tasas de impago de empresas privadas en máximos históricos, la firma de capital riesgo Lux Capital ha advertido sobre la fragilidad de los acuerdos verbales para asegurar capacidad de computación. Sin embargo, una alternativa radical está ganando terreno: eliminar por completo la dependencia de infraestructura externa. Los modelos de IA más pequeños, capaces de operar directamente en el dispositivo del usuario, están alcanzando un nivel de sofisticación que los convierte en una opción viable y muy atractiva.
En este escenario emerge con fuerza Multiverse Computing. Esta startup española, aunque hasta ahora ha mantenido un perfil más discreto que otros gigantes del sector, está captando la atención a medida que crece la demanda de eficiencia en la IA. Tras lograr comprimir exitosamente modelos de laboratorios de renombre como OpenAI, Meta, DeepSeek y Mistral AI, la compañía ha lanzado una aplicación y un portal API para demostrar y distribuir su innovadora tecnología.
CompactifAI: una ventana al futuro de la IA personal
La aplicación, bautizada como CompactifAI, funciona como un chatbot similar a ChatGPT, pero con una diferencia fundamental: integra a "Gilda", un modelo de lenguaje tan pequeño que puede ejecutarse de forma local y sin conexión a internet. Para el usuario final, esto supone un avance revolucionario en dos frentes clave: la privacidad, ya que los datos nunca abandonan el dispositivo, y la usabilidad, al no requerir una conexión activa.
No obstante, existe una limitación técnica: el dispositivo debe contar con suficiente memoria RAM y almacenamiento. Para los terminales más antiguos o con menos recursos, la app activa un sistema llamado "Ash Nazg" (un guiño para los fans de Tolkien) que redirige automáticamente las consultas a modelos más potentes en la nube a través de una API, sacrificando en el proceso la ventaja de la privacidad local. Esto demuestra que CompactifAI, con menos de 5,000 descargas el último mes, es más una demostración de poder tecnológico que un producto de masas. El verdadero objetivo es el sector empresarial.
El gran negocio: la IA comprimida para empresas
El lanzamiento más estratégico de Multiverse es su portal API de autoservicio. Esta plataforma ofrece a desarrolladores y empresas acceso directo a sus modelos comprimidos, eliminando intermediarios y proporcionando un control sin precedentes. "El portal API de CompactifAI brinda a los desarrolladores acceso directo a modelos comprimidos con la transparencia y el control necesarios para ejecutarlos en producción", afirmó Enrique Lizaso, CEO de la compañía. El monitoreo del uso en tiempo real es una de sus características estrella, ya que la reducción de costos de computación es uno de los principales incentivos para que las empresas adopten modelos más pequeños.
Reduciendo la brecha con los gigantes
Lejos de ser una alternativa de menor calidad, los modelos pequeños están demostrando ser cada vez más competentes. Los avances de Multiverse son una prueba de ello:
- Su último modelo comprimido, HyperNova 60B 2602, se basa en un modelo de código abierto de OpenAI.
- La compañía afirma que ofrece respuestas más rápidas y a un costo menor que el modelo original del que deriva.
- Esta eficiencia es especialmente valiosa para flujos de trabajo de codificación agéntica, donde la IA completa tareas de programación complejas de forma autónoma.
La tendencia es global. Otras compañías como la francesa Mistral también están optimizando sus familias de modelos pequeños para tareas complejas, confirmando que el futuro no pertenece únicamente a los gigantescos modelos de lenguaje (LLMs).
Nuevas fronteras: de la privacidad a los satélites
El desafío de reducir el tamaño de los modelos sin perder su utilidad es inmenso. La estrategia híbrida de Apple Intelligence (combinando un modelo en el dispositivo con otro en la nube) es un ejemplo de cómo la industria está abordando este reto. La propuesta de Multiverse va un paso más allá al demostrar que los modelos locales como Gilda pueden ser autosuficientes. Los beneficios van más allá del ahorro de costos o la privacidad para usuarios individuales; se trata de desbloquear casos de uso hasta ahora impensables. Por ejemplo, la integración de IA en drones, satélites y otros entornos donde la conectividad es limitada o inexistente. Con más de 100 clientes globales, incluyendo el Banco de Canadá, Bosch e Iberdrola, y rumores de una nueva ronda de financiación de 500 millones de euros, Multiverse Computing se posiciona como un actor clave en la próxima era de la inteligencia artificial: una era más distribuida, eficiente y privada.