Zuckerberg anuncia Llama 4 Scout e Maverick, novos modelos de IA com tecnologia MoE, maior eficiência e equilíbrio político, desafiando ChatGPT e Gemini.
A Meta lançou, em 5 de abril de 2025, os dois primeiros modelos da família Llama 4, Llama 4 Scout e Llama 4 Maverick, marcando sua estreia na arquitetura de mistura de especialistas (MoE). Anunciados por Mark Zuckerberg, os modelos prometem superar concorrentes como ChatGPT (OpenAI) e Gemini (Google) em eficiência, multimodalidade e equilíbrio em respostas. Disponíveis para download em llama.com e Hugging Face, os modelos reforçam a aposta da Meta em IA de código aberto, apesar de críticas sobre restrições na União Europeia.
Tecnologia MoE e eficiência
A arquitetura MoE divide tarefas complexas entre “especialistas” neurais, ativando apenas uma fração dos parâmetros totais, o que reduz custos e latência. O Llama 4 Scout, com 17 bilhões de parâmetros ativos e 16 especialistas, opera em uma única GPU NVIDIA H100, ideal para tarefas como sumarização e análise de código. O Llama 4 Maverick, também com 17 bilhões de parâmetros ativos, mas com 128 especialistas, é voltado para casos como escrita criativa e assistentes de chat, superando GPT-4o e Gemini 2.0 em benchmarks de codificação, raciocínio e imagens.
Multimodalidade e escala
Ambos os modelos são nativamente multimodais, processando texto, imagens e vídeos por meio da técnica de “fusão precoce”. O Scout suporta um contexto de 10 milhões de tokens, ante 128 mil do Llama 3, permitindo lidar com grandes volumes de dados. O Llama 4 Behemoth, ainda em treinamento, terá 288 bilhões de parâmetros ativos e 2 trilhões totais, sendo descrito como “o modelo mais poderoso” da Meta, com 390 TFLOPs por GPU em 32 mil GPUs.
Treinamento e equilíbrio político
Treinados com 30 trilhões de tokens — mais que o dobro do Llama 3 —, os modelos usaram a técnica MetaP para otimizar taxas de aprendizado por camada. A Meta também buscou reduzir vieses políticos, alegando que o Llama 4 é “dramaticamente mais equilibrado” em temas controversos, com taxas de recusa a perguntas políticas similares às do Grok, da xAI. Essa abordagem responde a críticas sobre vieses de esquerda em modelos anteriores.
Segurança e código aberto
Para mitigar riscos, a Meta desenvolveu o sistema Generative Offensive Agent Testing (GOAT), que simula interações adversárias para identificar vulnerabilidades. Apesar do compromisso com o código aberto, a Open Source Initiative questiona a classificação devido a restrições impostas a usuários da UE, onde a Meta enfrenta investigações por uso de dados de redes sociais no treinamento.
Desafios e críticas
Embora elogiado por sua eficiência e acesso gratuito, o Llama 4 enfrenta críticas. Posts no X apontam falhas em tarefas matemáticas e de raciocínio, com alguns usuários relatando “alucinações” em análises de código. Comparado ao DeepSeek R1, da China, o Llama 4 ainda não oferece um modelo de raciocínio dedicado, como o o3-mini da OpenAI, o que pode limitar sua performance em questões complexas.
Impacto e perspectivas
Integrados ao Meta AI, disponível em WhatsApp, Instagram e Messenger, os modelos Llama 4 visam tornar a Meta líder em IA até o fim de 2025, com investimentos de US$ 65 bilhões em infraestrutura, incluindo um data center de US$ 10 bilhões na Louisiana. A empresa planeja lançar o Llama 4 Reasoning e o Behemoth em breve, reforçando sua competição com OpenAI e Google.
—
Com informações de Hardware.com.br, Meta e posts no X