.
A O pesquisador obteve acesso no início deste ano pela empresa-mãe do Facebook, Meta, a um software de inteligência artificial incrivelmente potente – e o vazou para o mundo. Como ex-pesquisador da integridade cívica da Meta e das equipes responsáveis de IA, estou apavorado com o que pode acontecer a seguir.
Embora o Meta tenha sido violado pelo vazamento, ele saiu como o vencedor: pesquisadores e codificadores independentes estão agora correndo para melhorar ou construir na parte de trás do LLaMA (Large Language Model Meta AI – versão da marca Meta de um grande modelo de linguagem ou LLM, o tipo de software subjacente ao ChatGPT), com muitos compartilhando seu trabalho abertamente com o mundo.
Isso poderia posicionar a Meta como proprietária da peça central da plataforma de IA dominante, da mesma forma que o Google controla o sistema operacional Android de código aberto que é construído e adaptado por fabricantes de dispositivos em todo o mundo. Se a Meta assegurasse essa posição central no ecossistema de IA, teria influência para moldar a direção da IA em um nível fundamental, controlando as experiências de usuários individuais e estabelecendo limites sobre o que outras empresas poderiam ou não fazer. Da mesma forma que o Google colhe bilhões de publicidade, vendas de aplicativos e transações no Android, isso pode configurar o Meta para um período altamente lucrativo no espaço da IA, cuja estrutura exata ainda está para surgir.
A empresa aparentemente emitiu avisos de remoção para colocar o código vazado offline, já que deveria estar acessível apenas para uso em pesquisa, mas após o vazamento, o cientista-chefe de IA da empresa, Yann LeCun, disse: “A plataforma que vencerá será o aberto”, sugerindo que a empresa pode apenas operar com o modelo de código aberto como estratégia competitiva.
Embora o Bard do Google e o ChatGPT da OpenAI sejam de uso gratuito, eles não são de código aberto. Bard e ChatGPT contam com equipes de engenheiros, moderadores de conteúdo e analistas de ameaças que trabalham para evitar que suas plataformas sejam usadas para causar danos – em suas iterações atuais, eles (esperançosamente) não ajudarão você a construir uma bomba, planejar um ataque terrorista ou fazer falsos conteúdo criado para atrapalhar uma eleição. Essas pessoas e os sistemas que elas constroem e mantêm mantêm o ChatGPT e a Bard alinhados com valores humanos específicos.
O LLaMA de código semi-aberto da Meta e seus modelos descendentes de linguagem grande (LLMs), no entanto, podem ser executados por qualquer pessoa com hardware de computador suficiente para suportá-los – os últimos descendentes podem ser usados em laptops disponíveis comercialmente. Isso dá a qualquer um – de consultorias políticas sem escrúpulos à agência de inteligência GRU com bons recursos de Vladimir Putin – liberdade para operar a IA sem nenhum sistema de segurança instalado.
De 2018 a 2020 trabalhei na equipe de integridade cívica do Facebook. Dediquei anos da minha vida a lutar contra a interferência online na democracia de muitas fontes. Meus colegas e eu jogamos jogos longos de whack-a-mole com ditadores de todo o mundo que usaram “comportamento inautêntico coordenado”, contratando equipes de pessoas para criar manualmente contas falsas para promover seus regimes, vigiar e assediar seus inimigos, fomentar a agitação e até mesmo promover o genocídio.

Eu acho que a equipe de Putin já está no mercado para algumas ótimas ferramentas de IA para interromper a eleição presidencial dos EUA em 2024 (e provavelmente também em outros países). Posso pensar em poucas adições melhores ao seu arsenal do que LLMs disponíveis gratuitamente, como o LLaMA, e a pilha de software sendo construída em torno deles. Ele poderia ser usado para tornar o conteúdo falso mais convincente (muito do conteúdo russo implantado em 2016 tinha déficits gramaticais ou estilísticos) ou para produzir muito mais, ou poderia até mesmo ser reaproveitado como um “classificador” que escaneia as plataformas de mídia social para conteúdo particularmente incendiário de americanos reais para amplificar com comentários e reações falsos. Também poderia escrever scripts convincentes para deepfakes que sintetizam vídeos de candidatos políticos dizendo coisas que nunca disseram.
A ironia disso tudo é que as plataformas da Meta (Facebook, Instagram e WhatsApp) estarão entre os maiores campos de batalha para implantar essas “operações de influência”. Infelizmente, a equipe de integridade cívica em que trabalhei foi fechada em 2020 e, após várias rodadas de demissões, temo que a capacidade da empresa de combater essas operações tenha sido prejudicada.
Ainda mais preocupante, no entanto, é que agora entramos na “era do caos” das mídias sociais, e a proliferação de plataformas novas e crescentes, cada uma com equipes separadas e muito menores de “integridade” ou “confiança e segurança”, pode ser ainda mais preocupante. menos bem posicionada do que a Meta para detectar e interromper as operações de influência, especialmente nos últimos dias e horas das eleições, sensíveis ao tempo, quando a velocidade é mais crítica.
Mas minhas preocupações não param com a erosão da democracia. Depois de trabalhar na equipe de integridade cívica do Facebook, passei a gerenciar equipes de pesquisa que trabalham com IA responsável, registrando os possíveis danos da IA e buscando maneiras de torná-la mais segura e justa para a sociedade. Eu vi como os próprios sistemas de IA do meu empregador podem facilitar a discriminação habitacional, fazer associações racistas e impedir que as mulheres vejam as listas de empregos visíveis para os homens. Fora das paredes da empresa, os sistemas de IA recomendaram injustamente sentenças de prisão mais longas para negros, falharam em reconhecer com precisão os rostos de mulheres de pele escura e causaram inúmeros incidentes adicionais de danos, milhares dos quais estão catalogados no banco de dados de incidentes de IA.
A parte assustadora, porém, é que os incidentes que descrevo acima foram, em sua maioria, consequências não intencionais da implementação de sistemas de IA em escala. Quando a IA está nas mãos de pessoas que a abusam de forma deliberada e maliciosa, os riscos de desalinhamento aumentam exponencialmente, agravados ainda mais à medida que as capacidades da IA aumentam.
Seria justo perguntar: os LLMs não vão inevitavelmente se tornar de código aberto de qualquer maneira? Desde o vazamento do LLaMA, várias outras empresas e laboratórios se juntaram à corrida, alguns publicando LLMs que rivalizam com o LLaMA no poder com licenças de código aberto mais permissivas. Um LLM construído sobre o LLaMA orgulhosamente elogia sua natureza “sem censura”, citando sua falta de verificações de segurança como um recurso, não um bug. A Meta parece hoje estar sozinha, no entanto, pela sua capacidade de continuar a lançar modelos cada vez mais potentes aliada à sua vontade de os colocar nas mãos de quem os quiser. É importante lembrar que, se agentes mal-intencionados puderem colocar as mãos no código, é improvável que se importem com o que diz o contrato de licença.
Estamos vivendo um momento de aceleração tão rápida das tecnologias de IA que até mesmo atrasar seu lançamento – especialmente o lançamento de código aberto – por alguns meses pode dar aos governos tempo para implementar regulamentações críticas. É isso que CEOs como Sam Altman, Sundar Pichai e Elon Musk estão pedindo. As empresas de tecnologia também devem colocar controles muito mais fortes sobre quem se qualifica como “pesquisador” para acesso especial a essas ferramentas potencialmente perigosas.
As plataformas menores (e as equipes vazias nas maiores) também precisam de tempo para que suas equipes de confiança e segurança/integridade alcancem as implicações dos LLMs para que possam construir defesas contra abusos. As empresas de IA generativa e as plataformas de comunicação precisam trabalhar juntas para implantar marcas d’água para identificar conteúdo gerado por IA e assinaturas digitais para verificar se o conteúdo produzido por humanos é autêntico.
A corrida para o fundo da segurança da IA que estamos vendo agora deve parar. Nas audiências do mês passado perante o Congresso dos EUA, tanto Gary Marcus, especialista em IA, quanto Sam Altman, CEO da OpenAI, pediram a criação de novos órgãos internacionais de governança especificamente para IA – semelhantes aos órgãos que governam a segurança nuclear. A UE está muito à frente dos EUA nisso, mas, infelizmente, sua pioneira Lei de Inteligência Artificial da UE pode não entrar totalmente em vigor até 2025 ou mais tarde. É tarde demais para fazer a diferença nesta corrida.
Até que novas leis e novos órgãos governamentais estejam em vigor, infelizmente, teremos que contar com a paciência dos CEOs de tecnologia para impedir que as ferramentas mais poderosas e perigosas caiam em mãos erradas. Então, por favor, CEOs: vamos desacelerar um pouco antes de quebrar a democracia. E legisladores: apressem-se.
-
David Evan Harris é acadêmico público do chanceler na UC Berkeley, pesquisador sênior do International Computer Science Institute, consultor sênior de ética em IA no Psychology of Technology Institute, acadêmico afiliado do CITRIS Policy Lab e autor colaborador do Center for International Inovação em Governança
.








