.
As eleições em todo o mundo enfrentam uma ameaça crescente por parte de intervenientes estrangeiros, que envolve inteligência artificial.
Os países que tentavam influenciar as eleições uns dos outros entraram numa nova era em 2016, quando os russos lançaram uma série de campanhas de desinformação nas redes sociais visando as eleições presidenciais dos EUA. Ao longo dos sete anos seguintes, vários países – principalmente a China e o Irão – utilizaram as redes sociais para influenciar eleições estrangeiras, tanto nos EUA como noutras partes do mundo. Não há razão para esperar que 2023 e 2024 sejam diferentes.
Mas há um novo elemento: IA generativa e grandes modelos de linguagem. Eles têm a capacidade de produzir com rapidez e facilidade resmas infinitas de texto sobre qualquer tópico, em qualquer tom e em qualquer perspectiva. Como especialista em segurança, acredito que seja uma ferramenta especialmente adequada para a propaganda da era da Internet.
Tudo isso é muito novo. ChatGPT foi lançado em novembro de 2022. O GPT-4 mais poderoso foi lançado em março de 2023. Outras IAs de produção de linguagem e imagem têm aproximadamente a mesma idade. Não está claro como estas tecnologias irão mudar a desinformação, quão eficazes serão ou que efeitos terão. Mas estamos prestes a descobrir.
Uma conjunção de eleições
A época eleitoral estará em breve em pleno andamento em grande parte do mundo democrático. Setenta e um por cento das pessoas que vivem em democracias votarão nas eleições nacionais entre agora e o final do próximo ano. Entre eles: Argentina e Polónia em Outubro, Taiwan em Janeiro, Indonésia em Fevereiro, Índia em Abril, União Europeia e México em Junho e EUA em Novembro. Nove democracias africanas, incluindo a África do Sul, terão eleições em 2024. A Austrália e o Reino Unido não têm datas fixas, mas é provável que as eleições ocorram em 2024.
Muitas dessas eleições são muito importantes para os países que realizaram operações de influência nas redes sociais no passado. A China preocupa-se muito com Taiwan, Indonésia, Índia e muitos países africanos. A Rússia preocupa-se com o Reino Unido, a Polónia, a Alemanha e a UE em geral. Todo mundo se preocupa com os Estados Unidos.
E isso considerando apenas os maiores players. Cada eleição nacional dos EUA a partir de 2016 trouxe consigo um país adicional que tenta influenciar o resultado. Primeiro foram apenas a Rússia, depois a Rússia e a China e, mais recentemente, esses dois mais o Irão. À medida que o custo financeiro da influência estrangeira diminui, mais países podem participar na acção. Ferramentas como o ChatGPT reduzem significativamente o preço de produção e distribuição de propaganda, integrando essa capacidade no orçamento de muito mais países.
Interferência eleitoral
Há alguns meses, participei numa conferência com representantes de todas as agências de segurança cibernética dos EUA. Eles falaram sobre as suas expectativas em relação à interferência eleitoral em 2024. Esperavam os intervenientes habituais – Rússia, China e Irão – e um novo e significativo: “atores domésticos”. Isso é resultado direto desse custo reduzido.
É claro que conduzir uma campanha de desinformação envolve muito mais do que gerar conteúdo. A parte difícil é a distribuição. Um propagandista precisa de uma série de contas falsas para postar e de outras para torná-lo popular, onde possa se tornar viral. Empresas como a Meta ficaram muito melhores na identificação e remoção dessas contas. No mês passado, a Meta anunciou que removeu 7.704 contas do Facebook, 954 páginas do Facebook, 15 grupos do Facebook e 15 contas do Instagram associadas a uma campanha de influência chinesa, e identificou centenas de outras contas no TikTok, X (antigo Twitter), LiveJournal e Blogspot. Mas essa foi uma campanha que começou há quatro anos, produzindo desinformação pré-IA.
A desinformação é uma corrida armamentista. Tanto os atacantes como os defensores melhoraram, mas o mundo das redes sociais também está diferente. Há quatro anos, o Twitter era uma linha direta com a mídia, e a propaganda nessa plataforma era uma forma de inclinar a narrativa política. Um estudo da Columbia Journalism Review descobriu que a maioria dos principais meios de comunicação usava tweets russos como fontes de opinião partidária. Que o Twitter, com praticamente todos os editores de notícias lendo-o e todos que postaram lá, não existe mais.
Muitos meios de propaganda migraram do Facebook para plataformas de mensagens como Telegram e WhatsApp, o que os torna mais difíceis de identificar e remover. O TikTok é uma plataforma mais recente controlada pela China e mais adequada para vídeos curtos e provocativos – aqueles que a IA torna muito mais fácil de produzir. E a atual safra de IAs generativas está sendo conectada a ferramentas que também facilitarão a distribuição de conteúdo.
As ferramentas generativas de IA também permitem novas técnicas de produção e distribuição, como a propaganda de baixo nível em grande escala. Imagine uma nova conta pessoal com tecnologia de IA nas redes sociais. Na maior parte, ele se comporta normalmente. Ele posta sobre sua falsa vida cotidiana, participa de grupos de interesse e comenta postagens de outras pessoas e geralmente se comporta como um usuário normal. E de vez em quando, não com muita frequência, diz – ou amplifica – algo político. Esses bots persona, como os chama a cientista da computação Latanya Sweeney, têm influência insignificante sobre si próprios. Mas replicados aos milhares ou milhões, eles teriam muito mais.
Desinformação sobre esteróides de IA
Esse é apenas um cenário. Os oficiais militares na Rússia, na China e noutros locais responsáveis pela interferência eleitoral provavelmente farão com que os seus melhores funcionários pensem nos outros. E as suas táticas provavelmente serão muito mais sofisticadas do que eram em 2016.
Países como a Rússia e a China têm um historial de testes de ataques cibernéticos e de operações de informação em países mais pequenos antes de os implementarem em grande escala. Quando isso acontece, é importante ser capaz de identificar essas táticas. Combater novas campanhas de desinformação exige ser capaz de reconhecê-las, e reconhecê-las exige procurá-las e catalogá-las agora.
No mundo da segurança informática, os investigadores reconhecem que partilhar métodos de ataque e a sua eficácia é a única forma de construir sistemas defensivos fortes. O mesmo tipo de pensamento também se aplica a estas campanhas de informação: quanto mais os investigadores estudarem as técnicas que estão a ser utilizadas em países distantes, melhor poderão defender os seus próprios países.
As campanhas de desinformação na era da IA serão provavelmente muito mais sofisticadas do que eram em 2016. Acredito que os EUA precisam de envidar esforços para identificar e identificar a propaganda produzida pela IA em Taiwan, onde um candidato presidencial afirma que uma gravação de áudio deepfake foi o difamou e em outros lugares. Caso contrário, não os veremos quando chegarem aqui. Infelizmente, os investigadores estão a ser perseguidos e perseguidos.
Talvez tudo dê certo. Houve algumas eleições democráticas importantes na era da IA generativa sem problemas significativos de desinformação: primárias na Argentina, eleições de primeira volta no Equador e eleições nacionais na Tailândia, Turquia, Espanha e Grécia. Mas quanto mais cedo soubermos o que esperar, melhor poderemos lidar com o que vier.
.