.
Especialistas alertaram que é preciso tomar medidas sobre o uso de imagens geradas por inteligência artificial ou aprimoradas na política depois que um parlamentar trabalhista se desculpou por compartilhar uma imagem manipulada de Rishi Sunak servindo uma cerveja.
Karl Turner, o MP de Hull East, compartilhou uma imagem na plataforma renomeada do Twitter, X, mostrando o primeiro-ministro bebendo uma cerveja abaixo do padrão no festival da cerveja britânica, enquanto uma mulher observa com uma expressão zombeteira. A imagem foi manipulada a partir de uma foto original na qual Sunak parece ter puxado uma cerveja de nível de pub enquanto a pessoa atrás dele tem uma expressão neutra.
A imagem trouxe críticas dos conservadores, com o vice-primeiro-ministro, Oliver Dowden, chamando-a de “inaceitável”.
“Acho que o líder trabalhista deveria repudiar isso e os parlamentares trabalhistas que retuitaram ou compartilharam isso deveriam deletar a imagem, é claramente enganoso”, disse Dowden à LBC na quinta-feira.
Especialistas alertaram que a briga é uma indicação do que pode acontecer durante o que provavelmente será uma campanha eleitoral duramente disputada no ano que vem. Embora não esteja claro se a imagem de Sunak foi manipulada usando uma ferramenta de IA, esses programas tornaram mais fácil e rápido produzir texto, imagens e áudio falsos e convincentes.
Wendy Hall, professora régia de ciência da computação na Universidade de Southampton, disse: “Acho que o uso de tecnologias digitais, incluindo IA, é uma ameaça aos nossos processos democráticos. Deve estar no topo da agenda no registro de risco de IA com duas grandes eleições – no Reino Unido e nos EUA – se aproximando no próximo ano.”
Shweta Singh, professora assistente de sistemas de informação e gestão na Universidade de Warwick, disse: “Precisamos de um conjunto de princípios éticos que possam garantir e tranquilizar os usuários dessas novas tecnologias de que as notícias que estão lendo são confiáveis.
“Precisamos agir sobre isso agora, pois é impossível imaginar eleições justas e imparciais se tais regulamentos não existirem. É uma preocupação séria e estamos ficando sem tempo.”
O professor Faten Ghosn, chefe do departamento de governo da Universidade de Essex, disse que os políticos devem deixar claro aos eleitores quando estão usando imagens manipuladas. Ela sinalizou os esforços para regular o uso de IA na política pela congressista dos EUA Yvette Clarke, que está propondo uma mudança na lei que exigiria que anúncios políticos informassem aos eleitores se eles contivessem material gerado por IA.
“Se os políticos usam IA de qualquer forma, eles precisam garantir que ela carregue algum tipo de marca que informe o público”, disse Ghosn.
Os alertas contribuem para a crescente preocupação política sobre como regular a IA. Darren Jones, presidente trabalhista do comitê seleto de negócios, twittou na quarta-feira: “A verdadeira questão é: como alguém pode saber se uma foto é uma deepfake? Eu não criticaria @KarlTurnerMP por compartilhar uma foto que parece real para mim.”
Em resposta às críticas da secretária de ciência, Michelle Donelan, ele acrescentou: “O que seu departamento está fazendo para combater as fotos deepfake, especialmente antes da próxima eleição?”
após a promoção do boletim informativo
O departamento de ciência está consultando seu white paper de IA, publicado no início deste ano e defende princípios gerais para governar o desenvolvimento de tecnologia, em vez de restrições ou proibições específicas de determinados produtos. Desde que foi publicado, no entanto, Sunak mudou sua retórica sobre IA de falar principalmente sobre as oportunidades que ela apresentará para alertar que ela precisa ser desenvolvida com “guardas de proteção”.
Enquanto isso, as empresas de IA mais poderosas reconheceram a necessidade de um sistema para marcar o conteúdo gerado por IA. No mês passado, o desenvolvedor da Amazon, Google, Meta, Microsoft e ChatGPT, OpenAI, concordou com um conjunto de novas salvaguardas em uma reunião com Joe Biden, que incluía o uso de marca d’água para conteúdo visual e de áudio feito por IA.
Em junho, o presidente da Microsoft, Brad Smith, alertou que os governos tinham até o início do próximo ano para lidar com a questão da desinformação gerada pela IA. “Precisamos resolver isso, eu diria até o início do ano, se quisermos proteger nossas eleições em 2024”, disse ele.
.