Ciência e Tecnologia

O Google está enviando modelos Gemini Models mais rapidamente do que seus relatórios de segurança da IA

.

Mais de dois anos depois que o Google foi pego de pé com o lançamento do ChatGPT da Openai, a empresa aumentou drasticamente o ritmo.

No final de março, o Google lançou um modelo de raciocínio de IA, Gemini 2.5 Pro, que lidera a indústria Em vários benchmarks, medindo recursos de codificação e matemática. Esse lançamento ocorreu apenas três meses depois que a gigante da tecnologia estreou outro modelo, o Gemini 2.0 Flash, que foi de ponta na época.

O diretor e chefe de produto do Google, Tulsee Doshi, disse ao Strong The One em uma entrevista que a crescente cadência dos lançamentos do modelo da empresa faz parte de um esforço conjunto para acompanhar a indústria de IA em rápida evolução.

“Ainda estamos tentando descobrir qual é a maneira certa de divulgar esses modelos – qual é a maneira certa de obter feedback”, disse Doshi.

Mas o período de liberação aumentado parece ter custado. Google ainda não publicou relatórios de segurança para seus modelos mais recentesincluindo Gemini 2.5 Pro e Gemini 2.0 Flash, levantando preocupações de que a empresa esteja priorizando a velocidade sobre a transparência.

Hoje, é bastante padrão para a Frontier AI Labs – incluindo OpenAI, Antrópica e Meta – relatar testes de segurança, avaliações de desempenho e casos de uso sempre que lançam um novo modelo. Esses relatórios, às vezes chamados cartões de sistema ou modelo, foram propostos anos atrás por pesquisadores da indústria e da academia. O Google foi na verdade um dos primeiros a sugerir cartões de modelo em um Papel de pesquisa de 2019, Chamando -os de “uma abordagem para práticas responsáveis, transparentes e responsáveis ​​no aprendizado de máquina”.

Doshi disse ao Strong The One que a empresa não publicou um cartão de modelo para a Gemini 2.5 Pro porque considera o modelo um lançamento “experimental”. O objetivo desses lançamentos experimentais é divulgar um modelo de IA de uma maneira limitada, obter feedback e iterar no modelo antes do lançamento da produção, disse ela.

O Google pretende publicar o cartão de modelo Gemini 2.5 Pro quando disponibiliza o modelo geralmente, de acordo com a Doshi, acrescentando que a empresa já fez testes de segurança e equipes vermelhas adversárias.

Em uma mensagem de acompanhamento, um porta-voz do Google disse ao Strong The One que a segurança continua sendo uma “principal prioridade” para a empresa e que planeja lançar mais documentação em torno de seus modelos de IA, incluindo Gemini 2.0 Flash, avançando. O flash Gemini 2.0, que geralmente está disponível, também não possui um cartão de modelo. O último cartão de modelo que o Google lançou foi para Gêmeos 1.5 Proque saiu mais de um ano atrás.

Os cartões de sistema e os cartões de modelo fornecem informações úteis – e pouco lisonjeiras, às vezes – de que as empresas nem sempre anunciam amplamente sobre sua IA. Por exemplo, o cartão System OpenAI lançado para seu modelo de raciocínio O1 revelou que o modelo da empresa tem uma tendência a “planejar” contra os seres humanos e buscar secretamente seus objetivos próprios.

Em geral, a comunidade de IA percebe esses relatórios como esforços de boa fé para apoiar as avaliações independentes de pesquisa e segurança, mas os relatórios assumiram importância adicional nos últimos anos. Como Transformador Observado anteriormente, o Google disse ao governo dos EUA em 2023 que publicaria relatórios de segurança para todos os modelos públicos de IA “significativos” lançam “dentro do escopo”. A empresa fez um compromisso semelhante para outros governosprometendo “fornecer transparência pública”.

Houve esforços regulatórios nos níveis federal e estadual nos EUA para criar padrões de relatórios de segurança para os desenvolvedores de modelos de IA. No entanto, eles foram recebidos com adoção e sucesso limitados. Uma das tentativas mais notáveis ​​foi o Bill SB 1047 da Califórnia, que a indústria de tecnologia se opôs veementemente. Os legisladores também apresentaram legislação que autorizaria o Instituto de Segurança da AI dos EUA, o órgão de definição de padrões da AI dos EUA, para estabelecer diretrizes para lançamentos de modelos. No entanto, o Instituto de Segurança agora está enfrentando possíveis cortes sob o governo Trump.

De todas as aparições, o Google está ficando para trás em algumas de suas promessas de relatar os testes de modelo e, ao mesmo tempo, enviar modelos de envio mais rápido do que nunca. É um precedente ruim, muitos especialistas argumentam – principalmente à medida que esses modelos se tornam mais capazes e sofisticados.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo