.
Quando o CEO do Google Sundar Pichai enviou por e-mail a seus funcionários as prioridades da empresa para 2024 este mês, o desenvolvimento responsável de IA estava no topo da lista. Alguns funcionários agora se perguntam se o Google conseguirá atingir esse objetivo. A pequena equipe que serviu como principal vigilante interno da ética da IA perdeu seu líder e está sendo reestruturada, de acordo com quatro pessoas familiarizadas com as mudanças. Um porta-voz do Google disse que seu trabalho continuará de forma mais forte no futuro, mas se recusou a fornecer detalhes.
A equipe de Inovação Responsável do Google, conhecida como RESIN, estava localizada dentro do Escritório de Conformidade e Integridade, na divisão de assuntos globais da empresa. Revisou projetos internos quanto à compatibilidade com os princípios de IA do Google que definem regras para o desenvolvimento e uso da tecnologia, um papel crucial à medida que a empresa corre para competir em IA generativa. A RESIN conduziu mais de 500 avaliações no ano passado, inclusive para o chatbot Bard, de acordo com um relatório anual sobre princípios de IA, trabalho que o Google publicou este mês.
O papel da RESIN parece incerto desde que a sua líder e fundadora Jen Gennai, diretora de inovação responsável, deixou repentinamente esse cargo este mês, dizem as fontes, que falaram sob condição de anonimato para discutir mudanças de pessoal. O perfil de Gennai no LinkedIn a lista como consultora de ética e conformidade de IA no Google a partir deste mês, o que fontes dizem sugerir que ela sairá em breve com base em como foram as saídas anteriores da empresa.
O Google dividiu a equipe de cerca de 30 pessoas de Gennai em duas, segundo as fontes. O porta-voz da empresa, Brian Gabriel, diz que 10 por cento dos funcionários da RESIN permanecerão no cargo, enquanto 90% da equipe foi transferida para a Trust and Safety, que combate o abuso dos serviços do Google e também reside na divisão de assuntos globais. Ninguém parece ter sido demitido, dizem as fontes. A justificativa para as mudanças e como as responsabilidades serão divididas não pôde ser aprendida. Algumas das fontes dizem que não foram informadas sobre como as revisões dos princípios de IA serão tratadas no futuro.
Gabriel se recusou a dizer como o trabalho da RESIN de revisão de projetos de IA será tratado no futuro, mas descreve a mudança como um sinal do compromisso do Google com o desenvolvimento responsável de IA. A mudança “trouxe esta equipe específica de IA responsável para o centro de nossos esforços bem estabelecidos de confiança e segurança, que estão incorporados em nossas análises e planos de produtos”, diz ele. “Isso nos ajudará a fortalecer e dimensionar nosso trabalho de inovação responsável em toda a empresa.”
Tem uma dica?
O Google é conhecido por reorganizar frequentemente suas fileiras, mas o RESIN permaneceu praticamente intocado desde a fundação do grupo. Embora outras equipes e centenas de pessoas adicionais trabalhem na supervisão de IA no Google, o RESIN foi o mais proeminente, com uma missão que cobre todos os serviços principais do Google.
Além da saída de seu líder, Gennai, a RESIN também viu um de seus membros mais influentes, Sara Tangdall, principal especialista em ética em princípios de IA, sair este mês. Ela agora é diretora responsável de produtos de IA na Salesforce, de acordo com seu perfil no LinkedIn. Tangdall se recusou a comentar e Gennai não respondeu aos pedidos de comentários.
Revolta da IA
O Google criou sua equipe de Inovação Responsável em 2018, pouco depois de especialistas em IA e outros membros da empresa se levantarem publicamente em protesto contra um contrato do Pentágono chamado Projeto Maven, que usava algoritmos do Google para analisar imagens de vigilância de drones. A RESIN tornou-se o principal administrador de um conjunto de princípios de IA introduzidos após os protestos, que afirmam que o Google usará a IA para beneficiar as pessoas, e nunca para armas ou para minar os direitos humanos. Gennai ajudou a criar os princípios.
Equipes de todo o Google podiam enviar projetos para revisão pela RESIN, que fornecia feedback e às vezes bloqueava ideias consideradas violadoras dos princípios de IA. O grupo interrompeu o lançamento de Geradores de imagens de IA e algoritmos de síntese de voz que poderia ser usado para criar deepfakes.
Buscar orientação sobre os princípios de IA não é obrigatório para a maioria das equipes, ao contrário das revisões de riscos de privacidade, às quais todo projeto deve passar. Mas Gennai disse que as primeiras revisões dos sistemas de IA compensam, pois evitam violações éticas dispendiosas. “Se implementada corretamente, a IA responsável torna os produtos melhores, descobrindo e trabalhando para reduzir os danos que o preconceito injusto pode causar, melhorando a transparência e aumentando a segurança”, ela disse durante uma conferência do Google em 2022.
.