Multiverse Computing, una compañía líder en el campo de la compresión de modelos de inteligencia artificial, ha logrado un hito significativo al anunciar una exitosa ronda de financiación de 189 millones de euros (equivalentes a 215 millones de dólares). Esta inversión llega tras un año de dedicación en 2024 al desarrollo y la implementación inicial de su innovadora tecnología, CompactifAI. Esta solución es capaz de comprimir los Modelos de Lenguaje de Gran Tamaño (LLMs) hasta en un 95%, sin comprometer su rendimiento original, lo que representa un avance crucial para la industria.
La ronda de Serie B fue liderada por Bullhound Capital, y cuenta con el respaldo de una sólida red de inversores internacionales y estratégicos, incluyendo nombres de alto perfil como HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate VC, Quantonation, Toshiba y Capital Riesgo de Euskadi – Grupo SPRI. Esta significativa inyección de capital permitirá a Multiverse acelerar la adopción generalizada de CompactifAI, abordando uno de los mayores desafíos actuales: los elevados costes asociados a la implementación de LLMs. Se espera que esta tecnología revolucione el mercado de inferencia de IA, valorado en más de 106.000 millones de dólares.
La tecnología CompactifAI ofrece una solución innovadora a los problemas de costes y eficiencia de los LLMs, que tradicionalmente requieren infraestructuras especializadas en la nube, lo que eleva considerablemente los gastos de los centros de datos. A diferencia de las técnicas de compresión tradicionales que sacrifican rendimiento, CompactifAI genera versiones ultracomprimidas de los LLMs más avanzados del mercado que no solo mantienen su precisión, sino que también operan entre 4 y 12 veces más rápido. Esto se traduce en una reducción de los costes de inferencia de entre un 50% y un 80%, permitiendo que estos modelos sean ejecutados en la nube, en centros de datos privados, o incluso directamente en dispositivos como PCs, teléfonos, coches y drones.
Enrique Lizaso Olmos, fundador y CEO de Multiverse Computing, enfatizó que la compañía está «cambiando la idea» de que reducir el tamaño de los LLMs implica sacrificar rendimiento. La tecnología, que comenzó como un avance en compresión, se ha transformado en una solución que permite una mayor eficiencia en el despliegue de la IA, reduciendo drásticamente los requisitos de hardware. Román Orús, cofundador y director científico de Multiverse, explicó que CompactifAI fue desarrollada utilizando Tensor Networks, un enfoque inspirado en la computación cuántica que permite una optimización detallada de las redes neuronales. Actualmente, ya están disponibles versiones comprimidas de modelos líderes como Llama, DeepSeek y Mistral, con planes de incorporar nuevos modelos próximamente.