Ciência e Tecnologia

Os novos modelos Gemma 3 AI do Google são rápidos, frugais e prontos para telefones

.

Os esforços de IA do Google são sinônimos de Gemini, que agora se tornou um elemento integrante de seus produtos mais populares em todo o software e hardware também. No entanto, a empresa também lançou vários modelos de IA de código aberto sob a gravadora Gemma há mais de um ano.

Hoje, o Google revelou seus modelos de IA de terceira geração com algumas reivindicações impressionantes. Os modelos Gemma 3 vêm em quatro variantes – 1 bilhão, 4 bilhões, 12 bilhões e 27 bilhões de parâmetros – e são projetados para executar em dispositivos que variam de smartphones a estações de trabalho robustas.

Pronto para dispositivos móveis

Comparação de desempenho do modelo AI do Google Gemma 3.
Google

O Google diz que a Gemma 3 é o melhor modelo de acelerador único do mundo, o que significa que ele pode ser executado em uma única GPU ou TPU em vez de exigir um cluster inteiro. Teoricamente, isso significa que um modelo Gemma 3 AI pode ser executado de forma nativa na unidade Core de processamento de tensores (TPU) do Pixel Smartphone, da maneira como executa o modelo Nano Gemini localmente em telefones.

A maior vantagem do Gemma 3 sobre a família Gemini dos modelos de IA é que, como é de código aberto, os desenvolvedores podem empacotá-lo e enviá-lo de acordo com seus requisitos exclusivos dentro de aplicativos móveis e software de desktop. Outro benefício crucial é que a Gemma suporta mais de 140 idiomas, com 35 deles chegando como parte de um pacote pré-treinado.

E, assim como os mais recentes modelos da série Gemini 2.0, a Gemma 3 também é capaz de entender texto, imagens e vídeos. Em poucas palavras, é multi-multimdal. No lado da performance, a Gemma 3 sugere-se superar outros modelos populares de IA de código aberto, como o Deepseek V3, o OpenAi O3-Mini pronto para o raciocínio e a variante Llama-405b da Meta.

Versátil e pronto para implantar

Tomando o intervalo de insumos, o Gemma 3 oferece uma janela de contexto no valor de 128.000 tokens. Isso é o suficiente para cobrir um livro completo de 200 páginas impulsionado como uma entrada. Para comparação, a janela de contexto para o modelo flash Lite Gemini 2.0 do Google fica a um milhão de tokens. No contexto dos modelos de IA, uma palavra média em inglês é aproximadamente equivalente a 1,3 tokens.

Demonstração de entendimento visual com o modelo do Google Gemma 3 AI.
Gemma 3 Processando entrada visual. Google

O GEMMA 3 também suporta chamadas de funções e saída estruturada, o que significa essencialmente que ele pode interagir com conjuntos de dados externos e executar tarefas como um agente automatizado. A analogia mais próxima seria Gêmeos e como pode fazer o trabalho em diferentes plataformas, como o Gmail ou os documentos sem problemas.

Os mais recentes modelos de IA de código aberto do Google podem ser implantados localmente ou através das plataformas baseadas em nuvem da empresa, como a Suite AI Vertex. Os modelos Gemma 3 AI já estão disponíveis no Google AI Studio, bem como repositórios de terceiros, como abraçar o rosto, ollama e kaggle.

Google GEMMA 3 Modelo AI Benchmark.
Google

A GEMMA 3 faz parte de uma tendência do setor em que as empresas estão trabalhando em grandes modelos de idiomas (Gêmeos, no caso do Google) e simultaneamente empurrando também pequenos modelos de idiomas (SLMS). A Microsoft também segue uma estratégia semelhante com sua série PHI de código aberto de pequenos modelos de idiomas.

Modelos de idiomas pequenos, como Gemma e Phi, são extremamente eficientes em termos de recursos, o que os torna uma escolha ideal para executar em dispositivos como smartphones. Morando, pois oferecem uma latência mais baixa, eles são particularmente adequados para aplicativos móveis.






.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo