Ciência e Tecnologia

Meta libera Llama 4, uma nova safra de modelos de IA da principal

.

A Meta lançou uma nova coleção de modelos de IA, Llama 4, em sua família de lhama – em um sábado, nada menos.

Existem quatro novos modelos no total: Llama 4 Scout, Llama 4 Maverick e Llama 4 Behemoth. Todos foram treinados em “grandes quantidades de dados, imagem e vídeo não marcados” para dar a eles “amplo entendimento visual”, diz Meta.

O sucesso dos modelos abertos do laboratório chinês de AI Deepseek, que se apresenta no par ou melhor que os modelos de lhama anterior da Meta, teriam o desenvolvimento de Llama em Overdrive. Diz -se que a Meta tem salas de guerra embaralhadas para decifrar como o DeepSeek reduziu o custo de executar e implantar modelos como R1 e V3.

Scout e Maverick estão disponíveis abertamente no LLAMA.COM e nos parceiros da Meta, incluindo a plataforma de AI, abraçando o rosto, enquanto Behemoth ainda está em treinamento. A Meta diz que a Meta AI, seu assistente de IA em aplicativos, incluindo WhatsApp, Messenger e Instagram, foi atualizado para usar o LLAMA 4 em 40 países. Os recursos multimodais são limitados aos EUA em inglês por enquanto.

Alguns desenvolvedores podem discordar da licença LLAMA 4. Os usuários da UE estão proibidos de usar ou distribuir os modelos, provavelmente o resultado dos requisitos de governança impostos pelas leis de IA e privacidade de dados da região. (No passado, a Meta criticou essas leis como excessivamente onerosas.) Além disso, como nos lançamentos anteriores de lhama, empresas com mais de 700 milhões de usuários ativos mensais devem solicitar uma licença especial da Meta, que a Meta pode conceder – ou negar – a seu exclusivo critério.

“Esses modelos Llama 4 marcam o início de uma nova era para o ecossistema de llama”, escreveu Meta em uma postagem no blog. “Este é apenas o começo da coleção Llama 4”.

A Meta diz que o LLAMA 4 é sua primeira coorte de modelos a usar uma mistura de arquitetura de especialistas (MOE), que é mais eficiente em termos computacionalmente para treinamento e resposta a perguntas. As arquiteturas MOE basicamente dividem as tarefas de processamento de dados em subtarefas e depois as delegam a modelos menores e especializados de “especialistas”.

Maverick, por exemplo, tem 400 bilhões de parâmetros totais, mas apenas 17 bilhões ativo Parâmetros em 128 “especialistas”. (Os parâmetros correspondem aproximadamente às habilidades de solução de problemas de um modelo.) O escoteiro possui 17 bilhões de parâmetros ativos, 16 especialistas e 109 bilhões de parâmetros totais.

De acordo com os testes internos da META, Maverick, que a empresa diz ser melhor para casos de uso de “assistente geral e bate-papo”, como a escrita criativa, excede modelos como o GPT-4O do OpenAI e o Gemini 2.0 do Google em determinadas codificações, raciocínio, multilíngues, de longo prazo e benchmarks de imagem. No entanto, o Maverick não compara a modelos recentes mais capazes, como o Gemini 2.5 Pro do Google, o Claude 3.7 Sonnet do Anthropic e o GPT-4.5 do OpenAI.

Os pontos fortes de Scout estão em tarefas como resumo de documentos e raciocínio em grandes bases de código. Exclusivamente, tem uma janela de contexto muito grande: 10 milhões de tokens. (“Tokens” representam pedaços de texto bruto – por exemplo, a palavra “fantástica” dividida em “fã”, “tas” e “tic”.) Em inglês simples, os escoteiros podem receber imagens e até milhões de palavras, permitindo que ele processe e trabalhe com documentos extremamente grandes.

O Scout pode ser executado em uma única GPU NVIDIA H100, enquanto o Maverick requer um sistema DGX NVIDIA H100, de acordo com a Meta.

O gigante não lançado da Meta precisará de um hardware mais robusto. Segundo a empresa, Behemoth possui 288 bilhões de parâmetros ativos, 16 especialistas e quase dois trilhões de parâmetros totais. O benchmarking interno da Meta tem o melhor desempenho do GPT-4.5, Claude 3,7 sonetos e Gemini 2.0 Pro (mas não 2.5 Pro) em várias avaliações que medem habilidades STEM, como a solução de problemas de matemática.

É importante notar que nenhum dos modelos LLama 4 é um modelo de “raciocínio” adequado ao longo das linhas dos OpenAI e O3-mini. Modelos de raciocínio Verifique suas respostas e geralmente responde a perguntas de maneira mais confiável, mas, como conseqüência, demoram mais do que os modelos tradicionais e “não raciocinadores” para fornecer respostas.

Curiosamente, a Meta diz que sintonizou todos os seus modelos LLAMA 4 para se recusar a responder a perguntas “controversas” com menos frequência. Segundo a empresa, o LLama 4 responde aos tópicos políticos e sociais “debatidos” que a safra anterior de modelos de lhama não o faria. Além disso, diz a empresa, o LLAMA 4 é “dramaticamente mais equilibrado” com o qual o solicita não se divertir.

““[Y]Ou pode contar com [Lllama 4] para fornecer respostas factuais e úteis sem julgamento ”, disse um porta -voz da Strong The One.[W]Continuando a tornar a lhama mais receptiva para que responda mais perguntas, pode responder a uma variedade de pontos de vista diferentes […] e não favorece algumas opiniões sobre outras. ”

Esses ajustes vêm quando os aliados da Casa Branca acusam a IA de pobreza política.

Muitos dos confidentes próximos do presidente Donald Trump, incluindo Elon Musk e Crypto e AI “czar” David Sacks, alegaram que muitos pontos de vista conservadores do censor da AI Chatbots. Sacks tem historicamente destacado O Chatgpt, do Openai, em particular como “programado para ser acordado” e mentira sobre assuntos politicamente sensíveis.

Na verdade, o viés na IA é um problema técnico intratável. A própria empresa de IA de Musk, Xai, tem se esforçado para criar um chatbot que não endossa algumas opiniões políticas sobre outras.

Isso não impediu as empresas, incluindo o OpenAI, de ajustar seus modelos de IA para responder a mais perguntas do que teriam anteriormente, em particulares questões sobre controversos assuntos políticos.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo