.
No início deste ano, milhares de eleitores democratas em New Hampshire receberam um telefonema antes das primárias estaduais, instando-os a ficar em casa em vez de votar.
A ligação supostamente veio de ninguém menos que o presidente Joe Biden. Mas a mensagem era uma “deepfake”. Este termo abrange vídeos, imagens ou áudio feitos com inteligência artificial (IA) para parecerem reais, quando não o são. A chamada falsa de Biden é um dos exemplos mais conhecidos até o momento da ameaça crítica que os deepfakes podem representar para o processo democrático durante as atuais eleições no Reino Unido e as próximas eleições nos EUA.
Anúncios deepfake representando o primeiro-ministro Rishi Sunak alcançaram mais de 400.000 pessoas no Facebook, enquanto jovens eleitores nos principais campos de batalha eleitoral estão recebendo recomendações de vídeos falsos criados por ativistas políticos.
Mas pode haver ajuda proveniente de tecnologia que esteja em conformidade com um conjunto de princípios conhecido como “IA responsável”. Essa tecnologia pode detectar e filtrar falsificações da mesma forma que um filtro de spam.
A desinformação tem sido um problema durante as campanhas eleitorais, com muitos meios de comunicação a realizarem agora exercícios de “verificação de factos” sobre as afirmações feitas por candidatos rivais. Mas os rápidos desenvolvimentos da IA – e em particular da IA generativa – significam que a linha entre o verdadeiro e o falso, o facto e a ficção se tornou cada vez mais ténue.
Isto pode causar consequências devastadoras, semeando as sementes da desconfiança no processo político e influenciando os resultados eleitorais. Se esta questão continuar sem solução, podemos esquecer um processo democrático livre e justo. Em vez disso, enfrentaremos uma nova era de eleições influenciadas pela IA.
Sementes de desconfiança
Uma razão para a disseminação desenfreada desses deepfakes é o fato de serem baratos e fáceis de criar, não exigindo literalmente nenhum conhecimento prévio de inteligência artificial. Tudo que você precisa é determinação para influenciar o resultado de uma eleição.
A publicidade paga pode ser usada para propagar deepfakes e outras fontes de desinformação. A Lei de Segurança Online pode tornar obrigatória a remoção da desinformação ilegal uma vez identificada (independentemente de ser gerada por IA ou não).
Mas quando isso acontece, a semente da desconfiança já foi semeada nas mentes dos eleitores, corrompendo a informação que utilizam para formar opiniões e tomar decisões.

fotocosmos1 / Shutterstock
Remover deepfakes depois de já terem sido vistos por milhares de eleitores é como aplicar um esparadrapo numa ferida aberta – demasiado pouco, demasiado tarde. O objetivo de qualquer tecnologia ou lei destinada a combater os deepfakes deve ser prevenir totalmente os danos.
Com isto em mente, os EUA lançaram um grupo de trabalho de IA para aprofundar as formas de regular a IA e os deepfakes. Entretanto, a Índia planeia introduzir sanções tanto para aqueles que criam deepfakes e outras formas de desinformação, como para as plataformas que as espalham.
Paralelamente, estão as regulamentações impostas por empresas de tecnologia como Google e Meta, que exigem que os políticos divulguem o uso de IA em anúncios eleitorais. Finalmente, existem soluções tecnológicas para a ameaça dos deepfakes. Sete grandes empresas de tecnologia – incluindo OpenAI, Amazon e Google – incorporarão “marcas d’água” em seu conteúdo de IA para identificar deepfakes.
No entanto, existem várias advertências. Não existe uma marca d’água padrão, permitindo que cada empresa projete sua própria tecnologia de marca d’água e dificultando o rastreamento de deepfakes. O uso de marcas d’água é apenas um compromisso voluntário das empresas de tecnologia e o descumprimento não acarreta nenhuma penalidade. Existem também maneiras simples e inteligentes de remover a marca d’água. Veja o caso do DALL-E, onde uma pesquisa rápida revela o processo de remoção de sua marca d’água.
Além disso, as plataformas não são o único meio de comunicação online atualmente. Qualquer pessoa que pretenda espalhar desinformação pode facilmente enviar deepfakes por e-mail diretamente aos eleitores ou usar plataformas menos restritivas, como aplicativos de mensagens criptografadas, como meio preferencial de disseminação.
Dadas estas limitações, como podemos proteger as nossas democracias da ameaça representada pelos deepfakes de IA? A resposta é usar a tecnologia para combater um problema que a tecnologia criou, aproveitando-a para quebrar o ciclo de transmissão de desinformação através da Internet, e-mails e plataformas de chat online.
Uma maneira de fazer isso é projetar e desenvolver um novo mecanismo de “IA responsável” que possa detectar áudio e vídeo deepfake no ponto inicial. Muito parecido com um filtro de spam, ele os removeria dos feeds e caixas de entrada das redes sociais.
Cerca de 20 empresas líderes de tecnologia, incluindo Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI, TikTok e X, comprometeram-se a trabalhar em conjunto para detectar e combater conteúdos nocivos de IA. Este esforço combinado para combater o uso enganoso de IA nas eleições de 2024 é conhecido como Acordo Tecnológico.
Mas estes são os primeiros passos. No futuro, precisamos de soluções de IA responsáveis, que vão além da simples identificação e eliminação de deepfakes, mas também de encontrar métodos para rastrear as suas origens e garantir a transparência e a confiança nas notícias que os utilizadores leem.
O desenvolvimento destas soluções é uma corrida contra o tempo, com o Reino Unido e os EUA já a prepararem-se para as eleições. Devem ser feitos todos os esforços para desenvolver e implementar contra-medidas eficazes para proteger contra deepfakes políticos a tempo das eleições presidenciais dos EUA no final deste ano.
Dado o ritmo a que a IA está a progredir e as tensões que provavelmente rodearão a campanha, é difícil imaginar que seremos capazes de realizar eleições verdadeiramente justas e imparciais sem elas.
Até que regulamentações eficazes e tecnologia de IA responsável sejam implementadas para defender a integridade da informação, o velho ditado de que “ver para crer” já não se aplica. Isso deixa as atuais eleições gerais no Reino Unido vulneráveis à influência de deepfakes de IA.
Os eleitores devem ter cautela extra ao visualizar qualquer anúncio, texto, discurso, áudio ou vídeo com conexão política para evitar serem enganados por deepfakes que buscam minar nossa democracia.
.








