.
Apesar de anos de provas em contrário, muitos republicanos ainda acreditam que a vitória do presidente Joe Biden em 2020 foi ilegítima. Vários candidatos que negaram eleições venceram suas primárias durante a Superterça, incluindo Brandon Gill, genro do analista de direita Dinesh D'Souza e promotor do desmascarado 2.000 mulas filme. À entrada das eleições deste ano, as alegações de fraude eleitoral continuam a ser um elemento comum para os candidatos que concorrem à direita, alimentadas pela desinformação e pela desinformação, tanto online como offline.
E o advento da IA generativa tem o potencial de piorar o problema. A novo relatório do Centro de Combate ao Ódio Digital (CCDH), uma organização sem fins lucrativos que rastreia o discurso de ódio em plataformas sociais, descobriu que, embora as empresas de IA generativa digam que implementaram políticas para evitar que as suas ferramentas de criação de imagens sejam usadas para espalhar eleições- desinformação relacionada, os investigadores conseguiram contornar as suas salvaguardas e criar as imagens de qualquer maneira.
Embora algumas das imagens apresentassem figuras políticas, nomeadamente o presidente Joe Biden e Donald Trump, outras eram mais genéricas e, segundo Callum Hood, investigador-chefe da CCDH, podem ser mais enganadoras. Algumas imagens criadas a partir das solicitações dos pesquisadores, por exemplo, mostravam milícias fora de um local de votação, mostravam cédulas jogadas no lixo ou máquinas de votação sendo adulteradas. Em um caso, os pesquisadores conseguiram fazer com que o Dream Studio da StabilityAI gerasse uma imagem do presidente Biden em uma cama de hospital, parecendo doente.
“A verdadeira fraqueza estava em torno de imagens que poderiam ser usadas para tentar provar falsas alegações de eleições roubadas”, diz Hood. “A maioria das plataformas não tem políticas claras sobre isso e também não tem medidas de segurança claras.”
Os pesquisadores do CCDH testaram 160 prompts no ChatGPT Plus, Midjourney, Dream Studio e Image Creator e descobriram que o Midjourney tinha maior probabilidade de produzir imagens enganosas relacionadas às eleições, em cerca de 65% das vezes. Os pesquisadores só conseguiram solicitar que o ChatGPT Plus o fizesse 28% das vezes.
“Isso mostra que pode haver diferenças significativas entre as medidas de segurança que essas ferramentas implementam”, diz Hood. “Se alguém sela essas fraquezas de forma tão eficaz, significa que os outros realmente não se importaram.”
Em janeiro, OpenAI anunciado estava a tomar medidas para “garantir que a nossa tecnologia não fosse utilizada de uma forma que pudesse prejudicar este processo”, incluindo a proibição de imagens que desencorajassem as pessoas de “participar em processos democráticos”. Em fevereiro, Bloomberg informou que Midjourney estava considerando proibir a criação de imagens políticas como um todo. Dream Studio proíbe gerando conteúdo enganoso, mas não parece ter uma política eleitoral específica. E embora o Image Creator proíba a criação de conteúdo que possa ameaçar a integridade eleitoral, ele ainda permite que os usuários gerem imagens de figuras públicas.
Kayla Wood, porta-voz da OpenAI, disse à WIRED que a empresa está trabalhando para “melhorar a transparência no conteúdo gerado por IA e projetar mitigações, como recusar solicitações que solicitam a geração de imagens de pessoas reais, incluindo candidatos. Estamos desenvolvendo ativamente ferramentas de proveniência, incluindo a implementação de credenciais digitais C2PA, para auxiliar na verificação da origem das imagens criadas pelo DALL-E 3. Continuaremos a nos adaptar e aprender com o uso de nossas ferramentas.”
Microsoft, OpenAI, StabilityAI e Midjourney não responderam aos pedidos de comentários.
Hood teme que o problema com a IA generativa seja duplo: não apenas as plataformas de IA generativa precisam evitar a criação de imagens enganosas, mas as plataformas precisam ser capazes de detectá-las e removê-las. A relatório recente do IEEE Spectrum descobriu que o próprio sistema da Meta para marcar conteúdo gerado por IA com marca d'água foi facilmente contornado.
“Neste momento as plataformas não estão particularmente bem preparadas para isto. Portanto, as eleições serão um dos verdadeiros testes de segurança em torno das imagens de IA”, afirma Hood. “Precisamos das ferramentas e das plataformas para fazer muito mais progresso neste aspecto, especialmente em torno de imagens que poderiam ser usadas para promover alegações de eleições roubadas ou desencorajar as pessoas de votar.”
.








