A família de modelos de inteligência artificial de código aberto do Google, Gemma, alcançou um marco notável: mais de 150 milhões de downloads. A notícia foi compartilhada por Omar Sanseviero, engenheiro de relações com desenvolvedores do Google DeepMind, através de uma publicação na rede social X no último fim de semana.
Sanseviero também revelou um número impressionante de engajamento da comunidade de desenvolvedores: mais de 70.000 variantes dos modelos Gemma foram criadas na popular plataforma de desenvolvimento de IA, Hugging Face.
Gemma acabou de ultrapassar 150 milhões de downloads e mais de 70k variantes no Hugging Face 🚀🚀🚀
O que você gostaria de ver nas próximas versões do Gemma?
— Omar Sanseviero (@osanseviero) 11 de maio de 2025
Lançados em fevereiro de 2024, os modelos Gemma foram a aposta do Google para competir no crescente campo dos modelos “abertos”, rivalizando com iniciativas como a família Llama da Meta. As versões mais recentes do Gemma são multimodais, capazes de processar tanto texto quanto imagens, e oferecem suporte para mais de 100 idiomas. Além disso, o Google desenvolveu versões especializadas do Gemma, otimizadas para aplicações específicas, como a descoberta de novos medicamentos, conforme noticiado anteriormente pelo IAFeed.
Embora o número de 150 milhões de downloads em pouco mais de um ano seja expressivo e demonstre forte adoção, o Gemma ainda segue atrás de seu principal concorrente, o Llama. No final de abril, a Meta anunciou que seus modelos Llama já haviam ultrapassado a marca de 1,2 bilhão de downloads.
É importante notar, contudo, que tanto o Gemma quanto o Llama têm sido alvo de críticas devido aos seus termos de licenciamento personalizados e não padronizados. Alguns desenvolvedores, como apontado pelo IAFeed, consideram que essas licenças podem tornar o uso comercial dos modelos uma proposta arriscada, gerando debates na comunidade sobre a verdadeira “abertura” desses sistemas.
