A startup espanhola Multiverse Computing anunciou na quinta-feira uma impressionante captação de €189 milhões (aproximadamente US$215 milhões) em sua rodada de financiamento Série B. Este investimento significativo é impulsionado por sua tecnologia de vanguarda denominada CompactifAI, que promete transformar a eficiência dos modelos de inteligência artificial.
O que é CompactifAI e como funciona?
CompactifAI é uma tecnologia de compressão inspirada nos princípios da computação quântica. Segundo a Multiverse Computing, ela é capaz de reduzir o tamanho de Modelos de Linguagem Grandes (LLMs) em até 95%, um feito notável que é alcançado sem impactar o desempenho do modelo. Esta inovação visa tornar a IA mais acessível, rápida e economicamente viável.
Modelos Otimizados e Disponibilidade
A Multiverse já oferece versões “slim” – como são chamadas pela empresa – de conhecidos LLMs de código aberto. Entre eles, destacam-se modelos como Llama 4 Scout, Llama 3.3 70B, Llama 3.1 8B e Mistral Small 3.1. A empresa também planeja lançar em breve uma versão otimizada do DeepSeek R1, expandindo seu portfólio com mais modelos de código aberto e focados em raciocínio. É importante notar que modelos proprietários, como os da OpenAI, não são suportados atualmente.
Estes modelos compactados estão disponíveis através da Amazon Web Services (AWS) ou podem ser licenciados para implementação local (on-premises), oferecendo flexibilidade para diferentes necessidades empresariais.
Ganhos de Desempenho e Redução de Custos
Os benefícios da CompactifAI vão além da simples redução de tamanho. A Multiverse afirma que seus modelos otimizados são entre 4 a 12 vezes mais rápidos que suas contrapartes não comprimidas. Essa eficiência se traduz diretamente em uma redução de 50% a 80% nos custos de inferência.
Como exemplo prático, a empresa menciona que seu modelo Llama 4 Scout Slim tem um custo de apenas 10 centavos de dólar por milhão de tokens na AWS, enquanto a versão original do Llama 4 Scout custa 14 centavos.
IA em Qualquer Lugar: Novas Possibilidades de Aplicação
A drástica redução no tamanho e no consumo de energia dos modelos abre um leque de novas aplicações. A Multiverse sugere que seus modelos podem se tornar tão eficientes a ponto de serem executados em dispositivos cotidianos como PCs, smartphones, carros, drones e até mesmo no popular minicomputador para entusiastas, o Raspberry Pi. Isso poderia levar a interações com IA muito mais integradas e presentes em nosso dia a dia.
Liderança Técnica e Visão Estratégica
Por trás da Multiverse Computing está uma equipe com forte embasamento técnico e acadêmico. O cofundador e CTO, Román Orús, é professor no Donostia International Physics Center e uma referência em redes tensoras – ferramentas computacionais que simulam aspectos da computação quântica em hardware clássico e são cruciais para a compressão de modelos de deep learning.
O cofundador e CEO, Enrique Lizaso Olmos, possui múltiplos diplomas em matemática, experiência como professor universitário e uma carreira consolidada no setor financeiro, tendo sido vice-CEO do Unnim Bank.
Detalhes do Investimento Série B
A rodada de financiamento Série B foi liderada pela Bullhound Capital, conhecida por apoiar empresas de sucesso como Spotify, Revolut e Discord. Participaram também investidores de peso como HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate VC, Toshiba e Capital Riesgo de Euskadi – Grupo SPR.
Trajetória e Reconhecimento
Com este novo aporte, a Multiverse Computing já acumulou cerca de US$250 milhões em financiamento. A empresa detém 160 patentes e uma carteira de 100 clientes globais, que inclui nomes de prestígio como Iberdrola, Bosch e o Banco do Canadá, solidificando sua posição como uma força inovadora no campo da inteligência artificial.
