technology

Desinformação reinventada: como a IA pode corroer a democracia nas eleições de 2024 nos EUA | eleições americanas 2024

.

A distopia banal onde o conteúdo manipulativo é tão barato de fazer e tão fácil de produzir em grande escala que se torna onipresente: esse é o futuro político com o qual os especialistas digitais estão preocupados na era da inteligência artificial generativa (IA).

No período que antecedeu a eleição presidencial de 2016, as plataformas de mídia social foram vetores de desinformação, pois ativistas de extrema-direita, campanhas de influência estrangeira e sites de notícias falsas trabalharam para espalhar informações falsas e aumentar as divisões. Quatro anos depois, a eleição de 2020 foi invadida por teorias da conspiração e alegações infundadas sobre fraude eleitoral que foram amplificadas para milhões, alimentando um movimento antidemocrático para anular a eleição.

Agora, com a chegada das eleições presidenciais de 2024, especialistas alertam que os avanços na IA têm o potencial de pegar as táticas de desinformação do passado e dar uma nova vida a elas.

A desinformação gerada por IA não apenas ameaça enganar o público, mas também corroer um ecossistema de informações já em apuros, inundando-o com imprecisões e enganos, dizem os especialistas.

“Os graus de confiança diminuirão, o trabalho de jornalistas e outros que estão tentando disseminar informações reais ficará mais difícil”, disse Ben Winters, conselheiro sênior do Electronic Privacy Information Center, uma pesquisa de privacidade sem fins lucrativos. “Não terá efeitos positivos no ecossistema da informação.”

Ferramentas de inteligência artificial que podem criar imagens fotorrealistas, imitar áudio de voz e escrever texto humano de forma convincente aumentaram em uso este ano, já que empresas como a OpenAI lançaram seus produtos no mercado de massa. A tecnologia, que já ameaçou derrubar inúmeras indústrias e exacerbar as desigualdades existentes, está sendo cada vez mais empregada para criar conteúdo político.

Nos últimos meses, uma imagem gerada por IA de uma explosão no Pentágono causou uma breve queda no mercado de ações. Paródias de áudio de AI de presidentes dos EUA jogando videogames se tornaram uma tendência viral. Imagens geradas por IA que pareciam mostrar Donald Trump lutando contra policiais que tentavam prendê-lo circularam amplamente nas plataformas de mídia social. O Comitê Nacional Republicano divulgou um anúncio inteiramente gerado por IA que mostrava imagens de vários desastres imaginários que ocorreriam se Biden fosse reeleito, enquanto a Associação Americana de Consultores Políticos alertou que os vídeos deepfakes representam uma “ameaça à democracia”.

De certa forma, essas imagens e anúncios não são tão diferentes das imagens e vídeos manipulados, mensagens enganosas e robocalls que têm sido uma característica da sociedade há anos. Mas as campanhas de desinformação anteriormente enfrentavam uma série de obstáculos logísticos – a criação de mensagens individualizadas para a mídia social consumia muito tempo, assim como o Photoshop de imagens e a edição de vídeos.

Agora, porém, a IA generativa tornou a criação desse conteúdo acessível a qualquer pessoa com habilidades digitais básicas, em meio a barreiras de proteção limitadas ou regulamentação eficaz para reduzi-la. O efeito potencial, alertam os especialistas, é uma espécie de democratização e aceleração da propaganda bem no momento em que vários países entram em grandes anos eleitorais.

AI reduz o nível de desinformação

Os possíveis danos da IA ​​nas eleições podem ser lidos como um grande número de preocupações das últimas décadas de interferência eleitoral. Bots de mídia social que fingem ser eleitores reais, vídeos ou imagens manipulados e até chamadas robóticas enganosas são mais fáceis de produzir e mais difíceis de detectar com a ajuda de ferramentas de IA.

Há também novas oportunidades para os países estrangeiros tentarem influenciar as eleições dos EUA ou minar sua integridade, como autoridades federais há muito alertam que a Rússia e a China estão trabalhando para fazer. As barreiras linguísticas para a criação de conteúdo enganoso estão diminuindo, e sinais indicadores de golpistas ou campanhas de desinformação usando frases repetitivas ou escolhas de palavras estranhas estão sendo substituídos por textos mais críveis.

“Se você está sentado em uma fazenda de trolls em um país estrangeiro, não precisa mais ser fluente para produzir um artigo que soe fluente no idioma de seu público-alvo”, disse Josh Goldstein, pesquisador do Centro de Segurança e Tecnologia Emergente da Universidade de Georgetown. “Você pode apenas ter um modelo de linguagem cuspindo um artigo com a gramática e o vocabulário de um falante fluente.”

A tecnologia de IA também pode intensificar as campanhas de supressão de eleitores para atingir comunidades marginalizadas. Dois ativistas de extrema-direita admitiram no ano passado fazer mais de 67.000 ligações automáticas visando eleitores negros no meio-oeste com desinformação eleitoral, e especialistas como Winters observam que a IA poderia hipoteticamente ser usada para replicar essa campanha em uma escala maior com informações mais personalizadas. O áudio que imita líderes eleitos ou personalidades de confiança pode transmitir a grupos selecionados de eleitores informações enganosas sobre pesquisas e votações ou causar confusão geral.

Gerar campanhas de cartas ou engajamento falso também pode criar uma espécie de eleitorado falso, deixando claro como os eleitores estão realmente respondendo aos problemas. Como parte de um experimento de pesquisa publicado no início deste ano, os professores da Universidade de Cornell, Sarah Kreps e Doug Kriner, enviaram dezenas de milhares de e-mails para mais de 7.000 legisladores estaduais em todo o país. Os e-mails supostamente eram de eleitores preocupados, mas foram divididos entre cartas geradas por IA e escritas por humanos. As respostas foram praticamente as mesmas, com e-mails escritos por humanos recebendo apenas uma taxa de resposta 2% maior do que os gerados por IA.

pule a promoção do boletim informativo

Campanhas testam as águas

As campanhas já começaram a usar conteúdo gerado por IA para fins políticos. Depois que o governador da Flórida, Ron DeSantis, anunciou sua candidatura durante uma transmissão ao vivo no Twitter em maio, Donald Trump zombou de seu oponente com uma paródia em vídeo do anúncio que apresentava as vozes geradas por IA de DeSantis, Elon Musk e Adolf Hitler. No mês passado, a campanha DeSantis compartilhou imagens geradas por IA de Trump abraçando e beijando Anthony Fauci.

Durante as eleições de 2016 e 2020, a campanha de Trump se apoiou fortemente em memes e vídeos feitos por seus apoiadores – incluindo vídeos editados enganosamente que faziam parecer que Biden estava falando mal ou dizendo que não deveria ser presidente. A versão AI dessa estratégia está se aproximando, alertam observadores eleitorais, com Trump compartilhando um vídeo deepfake em maio do apresentador da CNN, Anderson Cooper, dizendo aos telespectadores que eles acabaram de assistir “Trump nos rasgando um novo idiota aqui na prefeitura presidencial ao vivo da CNN”.

Faltando cerca de 16 meses para a eleição presidencial e o uso generalizado de IA generativa ainda em seus primeiros dias, é uma questão em aberto qual o papel que a inteligência artificial desempenhará na votação. A criação de conteúdo enganoso gerado por IA por si só não significa que terá efeito em uma eleição, dizem os pesquisadores, e medir o impacto das campanhas de desinformação é uma tarefa notoriamente difícil. Uma coisa é monitorar o envolvimento de materiais falsos, mas outra é avaliar os efeitos secundários da poluição do ecossistema de informações a ponto de as pessoas geralmente desconfiarem de qualquer informação que consomem online.

Mas há sinais preocupantes. Assim como o uso de IA generativa está aumentando, muitas das plataformas de mídia social nas quais os malfeitores confiam para espalhar desinformação começaram a reverter algumas de suas medidas de moderação de conteúdo – o YouTube reverteu sua política de integridade eleitoral, o Instagram permitiu que o teórico da conspiração antivacina Robert F. Kennedy Jr voltasse à sua plataforma e o chefe de moderação de conteúdo do Twitter deixou a empresa em junho em meio a uma queda geral nos padrões sob Elon Musk.

Resta ver como a alfabetização midiática eficaz e os meios tradicionais de checagem de fatos podem ser eficazes contra uma enxurrada de textos e imagens enganosos, dizem os pesquisadores, já que a escala potencial do conteúdo gerado representa um novo desafio.

“Imagens e vídeos gerados por IA podem ser criados muito mais rapidamente do que os verificadores de fatos podem revisá-los e desmascará-los”, disse Goldstein, acrescentando que o hype sobre IA também pode corroer a confiança ao fazer o público acreditar que qualquer coisa pode ser gerada artificialmente.

Alguns serviços de IA generativa, incluindo o ChatGPT, têm políticas e salvaguardas contra a geração de desinformação e, em certos casos, podem impedir que o serviço seja usado para esse fim. Mas ainda não está claro o quão eficazes são, e vários modelos de código aberto carecem de tais políticas e recursos.

“Na verdade, não haverá controle suficiente da disseminação”, disse Winters. “Não faltam robocallers, robo emailers ou texters e plataformas de email em massa. Não há nada limitando o uso deles.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo