.
As eleições do próximo ano na Grã-Bretanha e nos EUA podem ser marcadas por uma onda de desinformação alimentada por IA, alertaram especialistas, à medida que imagens, textos e vídeos deepfake gerados se tornam virais a mando de enxames de bots de propaganda alimentados por IA.
Sam Altman, CEO do criador do ChatGPT, OpenAI, disse em uma audiência no Congresso em Washington nesta semana que os modelos por trás da última geração de tecnologia de IA podem manipular os usuários.
“A capacidade geral desses modelos de manipular e persuadir, de fornecer desinformação interativa individual, é uma área significativa de preocupação”, disse ele.
“A regulamentação seria bastante sábia: as pessoas precisam saber se estão falando com uma IA ou se o conteúdo que estão vendo é gerado ou não. A capacidade de realmente modelar … de prever os humanos, acho que vai exigir uma combinação de empresas fazendo a coisa certa, regulamentação e educação pública”.
O primeiro-ministro, Rishi Sunak, disse na quinta-feira que o Reino Unido lideraria a limitação dos perigos da IA. As preocupações com a tecnologia aumentaram após os avanços na IA generativa, onde ferramentas como ChatGPT e Midjourney produzem textos, imagens e até comandos de voz convincentes.
Onde as ondas anteriores de bots de propaganda dependiam de mensagens pré-escritas simples enviadas em massa, ou edifícios cheios de “trolls pagos” para realizar o trabalho manual de se envolver com outros humanos, o ChatGPT e outras tecnologias aumentam a perspectiva de interferência eleitoral interativa em escala.
Uma IA treinada para repetir pontos de discussão sobre Taiwan, colapso climático ou direitos LGBT+ poderia amarrar oponentes políticos em argumentos infrutíferos enquanto convence os espectadores – em milhares de diferentes contas de mídia social ao mesmo tempo.
O professor Michael Wooldridge, diretor da fundação de pesquisa de IA do Alan Turing Institute, no Reino Unido, disse que a desinformação alimentada por IA era sua principal preocupação com a tecnologia.
“No momento, em termos de minhas preocupações com a IA, ela é a número um da lista. Temos eleições chegando no Reino Unido e nos Estados Unidos e sabemos que a mídia social é um canal incrivelmente poderoso para a desinformação. Mas agora sabemos que a IA generativa pode produzir desinformação em escala industrial”, disse ele.
Wooldridge disse que chatbots como o ChatGPT podem produzir desinformação personalizada direcionada a, por exemplo, um eleitor conservador nos condados de origem, um eleitor trabalhista em uma área metropolitana ou um apoiador republicano no meio-oeste.
“É uma tarde de trabalho para alguém com um pouco de experiência em programação criar identidades falsas e começar a gerar essas notícias falsas”, disse ele.
Depois que fotos falsas de Donald Trump sendo preso em Nova York se tornaram virais em março, pouco antes de imagens atraentes geradas por IA do Papa Francisco em uma jaqueta Balenciaga se espalharem ainda mais, outros expressaram preocupação com as imagens geradas sendo usadas para confundir e desinformar. Mas, disse Altman aos senadores americanos, essas preocupações podem ser exageradas.
“O Photoshop entrou em cena há muito tempo e, por um tempo, as pessoas foram realmente enganadas por imagens com Photoshop – então rapidamente desenvolveram um entendimento de que as imagens podem ser tratadas com Photoshop.”
Mas, à medida que os recursos de IA se tornam cada vez mais avançados, há preocupações de que seja cada vez mais difícil acreditar em qualquer coisa que encontramos online, seja desinformação, quando uma falsidade é espalhada por engano, ou desinformação, onde uma narrativa falsa é gerada e distribuída de propósito. .
A clonagem de voz, por exemplo, ganhou destaque em janeiro após o surgimento de um vídeo adulterado do presidente dos Estados Unidos, Joe Biden, no qual imagens dele falando sobre o envio de tanques para a Ucrânia foram transformadas por tecnologia de simulação de voz em um ataque a pessoas transgênero – e foi compartilhado nas redes sociais.
após a promoção do boletim informativo
Uma ferramenta desenvolvida pela empresa americana ElevenLabs foi usada para criar a versão falsa. A natureza viral do clipe ajudou a estimular outras paródias, incluindo uma de Bill Gates supostamente dizendo que a vacina Covid-19 causa Aids. A ElevenLabs, que admitiu em janeiro estar vendo “um número crescente de casos de uso indevido de clonagem de voz”, desde então reforçou suas salvaguardas contra o uso vexatório de sua tecnologia.
A Recorded Future, uma empresa de segurança cibernética dos EUA, disse que atores desonestos podem ser encontrados vendendo serviços de clonagem de voz online, incluindo a capacidade de clonar vozes de executivos corporativos e figuras públicas.
Alexander Leslie, analista da Recorded Future, disse que a tecnologia só melhoraria e se tornaria mais amplamente disponível na corrida para a eleição presidencial dos EUA, dando à indústria de tecnologia e aos governos uma janela para agir agora.
“Sem educação e conscientização generalizadas, isso pode se tornar um vetor de ameaça real à medida que nos aproximamos da eleição presidencial”, disse Leslie.
Um estudo da NewsGuard, uma organização norte-americana que monitora desinformação e desinformação, testou o modelo por trás da versão mais recente do ChatGPT, solicitando que ele gerasse 100 exemplos de narrativas de notícias falsas, de aproximadamente 1.300 “impressões digitais” de notícias falsas comumente usadas.
O NewsGuard descobriu que poderia gerar todos os 100 exemplos solicitados, incluindo “a Rússia e seus aliados não foram responsáveis pela queda do voo MH17 da Malaysia Airlines na Ucrânia”. Um teste do chatbot Bard do Google descobriu que ele poderia produzir 76 dessas narrativas.
A NewsGuard também anunciou na sexta-feira que o número de sites de notícias e informações gerados por IA dos quais tinha conhecimento mais do que dobrou em duas semanas, para 125.
Steven Brill, co-CEO da NewsGuard, disse estar preocupado que atores desonestos possam aproveitar a tecnologia chatbot para produzir em massa variações de histórias falsas. “O perigo é alguém usá-lo deliberadamente para divulgar essas falsas narrativas”, disse ele.
.







