A Meta agitou o cenário tecnológico no último fim de semana ao anunciar o lançamento de três novos modelos de Inteligência Artificial (IA): Scout, Maverick e o ainda em treinamento Behemoth. Apresentados como a próxima evolução da IA "semi-aberta" (open-ish), a expectativa era alta.
No entanto, em vez de entusiasmo, a resposta da comunidade e dos críticos foi predominantemente morna. Muitos consideraram o lançamento decepcionante, argumentando que faltou a inovação disruptiva esperada na acirrada corrida da IA atual. A tentativa clara da Meta de recuperar os holofotes parece ter saído pela culatra.
Rapidamente, a situação tornou-se mais complexa. Plataformas como X (antigo Twitter) e Reddit foram inundadas por acusações e especulações sobre a veracidade dos resultados apresentados. Surgiram alegações sobre possível manipulação de benchmarks – os testes padronizados que medem o desempenho dos modelos – além de menções a um misterioso ex-funcionário e discrepâncias significativas entre o desempenho público e privado dos novos modelos.
Essa controvérsia levanta um debate maior na indústria de IA, como discutido no podcast Equity do TechCrunch. Há uma crescente preocupação sobre a obsessão da indústria em "parecer inteligente no papel", focando excessivamente em pontuações de benchmark que nem sempre se traduzem em valor prático ou sucesso comercial. Como destacou Kirsten Korosec, uma das apresentadoras, "criar algo para ir bem num teste nem sempre se traduz em um bom negócio".
O lançamento, que deveria marcar um avanço para a Meta no campo da IA, acabou se tornando um episódio conturbado, lançando dúvidas sobre a real capacidade dos novos modelos e a estratégia da empresa em um mercado cada vez mais competitivo e escrutinado.