Meta Lança Nova Geração de Modelos de IA Llama 4

Meta Lança Nova Geração de Modelos de IA Llama 4

Meta Lança Nova Geração de Modelos de IA Llama 4

A Meta anunciou no sábado o lançamento de uma nova coleção de modelos de inteligência artificial, a Llama 4, ampliando a família Llama com quatro novos modelos: Llama 4 Scout, Llama 4 Maverick, Llama 4 Behemoth e outro ainda em desenvolvimento. Todos os modelos foram treinados em grandes quantidades de texto, imagem e dados de vídeo, conferindo-lhes uma compreensão visual abrangente, segundo a Meta.

A pressão competitiva sobre a Meta veio do sucesso dos modelos abertos do laboratório de IA chinês DeepSeek, cujas performances são iguais ou superiores aos modelos anteriores da Meta. Isso teria impulsionado a Meta a acelerar o desenvolvimento da Llama 4, com salas de guerra montadas para entender como a DeepSeek reduziu custos na execução e implantação de modelos como R1 e V3.

Os modelos Scout e Maverick estão disponíveis publicamente no site Llama.com e através de parceiros da Meta, incluindo a plataforma de desenvolvimento de IA Hugging Face. Já o Behemoth ainda está em treinamento. A Meta também atualizou seu assistente de IA, o Meta AI, para utilizar a Llama 4 em 40 países, com recursos multimídia limitados aos EUA em inglês por enquanto.

Alguns desenvolvedores podem ter problemas com a licença da Llama 4. Usuários na União Europeia estão proibidos de usar ou distribuir os modelos, provavelmente devido a requisitos de governança impostos pelas leis de IA e privacidade de dados da região. Além disso, como nas versões anteriores da Llama, empresas com mais de 700 milhões de usuários ativos mensais devem solicitar uma licença especial à Meta, que pode conceder ou negar a seu critério exclusivo.

Os modelos Llama 4 marcam o início de uma nova era para o ecossistema Llama, segundo a Meta. A empresa destaca que esta é apenas o começo para a coleção Llama 4.

A Llama 4 é a primeira coorte de modelos da Meta a utilizar uma arquitetura de mistura de especialistas (MoE), que é mais eficiente computacionalmente para treinamento e resposta a consultas. A arquitetura MoE divide as tarefas de processamento de dados em subtarefas e as delega a modelos menores e especializados.

O modelo Maverick, por exemplo, possui 400 bilhões de parâmetros totais, mas apenas 17 bilhões de parâmetros ativos em 128 'especialistas'. O Scout tem 17 bilhões de parâmetros ativos, 16 especialistas e 109 bilhões de parâmetros totais.

De acordo com testes internos da Meta, o Maverick, ideal para casos de uso como assistente geral e bate-papo, como escrita criativa, supera modelos como o GPT-4o da OpenAI e o Gemini 2.0 do Google em certos benchmarks de codificação, raciocínio, multilíngue, contexto longo e imagens. No entanto, o Maverick não se compara a modelos mais recentes e capazes como o Gemini 2.5 Pro do Google, o Claude 3.7 Sonnet da Anthropic e o GPT-4.5 da OpenAI.

As forças do Scout estão em tarefas como resumo de documentos e raciocínio sobre grandes bases de códigos. Ele possui uma janela de contexto muito grande: 10 milhões de tokens. Em termos simples, o Scout pode processar e trabalhar com documentos extremamente grandes, incluindo imagens e milhões de palavras.

O Scout pode ser executado em uma única GPU Nvidia H100, enquanto o Maverick requer um sistema Nvidia H100 DGX, segundo a Meta. O Behemoth, ainda não lançado, precisará de hardware ainda mais robusto. De acordo com a empresa, o Behemoth possui 288 bilhões de parâmetros ativos, 16 especialistas e quase dois trilhões de parâmetros totais. Testes internos da Meta mostram que o Behemoth supera o GPT-4.5, o Claude 3.7 Sonnet e o Gemini 2.0 Pro (mas não o 2.5 Pro) em várias avaliações que medem habilidades em STEM, como resolução de problemas matemáticos.

Nenhum dos modelos Llama 4 é um modelo de 'raciocínio' adequado, ao estilo do o1 e o3-mini da OpenAI. Modelos de raciocínio verificam os fatos de suas respostas e geralmente respondem a perguntas de forma mais confiável, mas, como consequência, levam mais tempo do que os modelos tradicionais, 'não-raciocínio', para fornecer respostas.

Curiosamente, a Meta afirma que ajustou todos os seus modelos Llama 4 para recusar menos perguntas 'controversas'. Segundo a empresa, a Llama 4 responde a tópicos políticos e sociais debatidos que os modelos anteriores da Llama não responderiam. Além disso, a empresa diz que a Llama 4 é 'dramaticamente mais equilibrada' em relação aos prompts que simplesmente não vai entreter.

'Você pode contar com a Llama 4 para fornecer respostas úteis e factuais sem julgamento', disse um porta-voz da Meta ao TechCrunch. 'Estamos continuando a tornar a Llama mais responsiva para que ela responda a mais perguntas, possa responder a uma variedade de pontos de vista diferentes [...] e não favoreça algumas visões sobre outras.'

Essas alterações ocorrem enquanto aliados da Casa Branca acusam a IA de 'politicamente correta'.

Muitos dos conselheiros próximos do Presidente Donald Trump, incluindo Elon Musk e o 'czar' de cripto e IA David Sacks, alegaram que muitos chatbots de IA censuram pontos de vista conservadores. Sacks já destacou o ChatGPT da OpenAI em particular como 'programado para ser politicamente correto' e desonesto sobre assuntos politicamente sensíveis.

Na realidade, o viés na IA é um problema técnico intratável. A própria empresa de IA de Musk, a xAI, tem lutado para criar um chatbot que não endosse alguns pontos de vista políticos sobre outros.

Isso não impediu empresas como a OpenAI de ajustar seus modelos de IA para responder a mais perguntas do que responderiam anteriormente, em particular perguntas sobre assuntos políticos controversos.

Compartilhe este artigo