News

como o governo pode lidar com eles

.

O governo do Reino Unido planeja reprimir os deepfakes explícitos, nos quais imagens ou vídeos de pessoas são misturados com material pornográfico usando inteligência artificial (IA) para fazer com que pareça um conteúdo autêntico. Embora já seja um crime compartilhar esse tipo de material, não é ilegal criá-lo.

No entanto, no que diz respeito às crianças, a maioria das alterações propostas não se aplica. Já é uma ofensa criar deepfakes explícitos para menores de 18 anos, cortesia do Coroners and Justice Act 2009, que antecipou a forma como a tecnologia progrediu ao proibir imagens geradas por computador.

Hugo Bolton
Hugo Bolton.
Polícia da Grande Manchester

Isso foi confirmado em um caso histórico em outubro que prendeu o estudante Hugh Nelson, de Bolton, por 18 anos, por criar e compartilhar tais deepfakes para clientes que lhe forneceriam as imagens inocentes originais.

A mesma lei poderia quase certamente também ser usada para processar alguém que usa IA para gerar imagens de pedofilia sem recorrer a imagens de crianças “reais”. Tais imagens podem aumentar o risco de os agressores progredirem para o abuso sexual de crianças. No caso de Nelson, ele admitiu ter encorajado os seus clientes a abusar das crianças nas fotografias que lhe enviaram.

Dito tudo isto, ainda é difícil acompanhar as formas como os avanços tecnológicos estão a ser usados ​​para facilitar o abuso infantil, tanto em termos da lei como dos aspectos práticos da sua defesa. Um relatório de 2024 da Internet Watch Foundation, uma instituição de caridade com sede no Reino Unido focada nesta área, descobriu que as pessoas estão a criar imagens explícitas de crianças com IA a um “ritmo assustador”.

Problemas legais

Os planos do governo irão colmatar uma lacuna em torno das imagens de crianças que era uma característica do caso Nelson. Aqueles que obtiverem tais ferramentas da Internet com a intenção de criar imagens depravadas estarão automaticamente cometendo uma ofensa – mesmo que não criem ou compartilhem tais imagens.

Além disso, porém, a tecnologia ainda cria muitos desafios para a lei. Por um lado, essas imagens ou vídeos podem ser copiados e compartilhados muitas vezes. Muitos deles nunca poderão ser eliminados, especialmente se estiverem fora da jurisdição do Reino Unido. As crianças envolvidas num caso como o de Nelson crescerão e as imagens ainda estarão no mundo digital, prontas para serem compartilhadas continuamente.

Isto fala dos desafios envolvidos na legislação para uma tecnologia que atravessa fronteiras. Tornar ilegal a criação de tais imagens é uma coisa, mas as autoridades do Reino Unido não podem rastrear e processar em todos os lugares. Só podem esperar fazê-lo em parceria com outros países. Existem acordos recíprocos, mas o governo precisa claramente de fazer tudo o que estiver ao seu alcance para os estender.

Enquanto isso, em primeiro lugar, não é ilegal que as empresas de software treinem um algoritmo para produzir deepfakes infantis, e os perpetradores podem esconder onde estão baseados usando servidores proxy ou software de terceiros. O governo poderia certamente considerar legislar contra os fornecedores de software, mesmo que a dimensão internacional torne novamente estas coisas mais difíceis.

Depois, há as plataformas online. A Lei de Segurança Online de 2023 colocou sobre seus ombros a responsabilidade de conter conteúdo prejudicial, o que sem dúvida lhes dá mais poder do que seria sensato.

Para ser justo, o Ofcom, o regulador do setor de comunicações, está falando duro. Deu às plataformas até março para realizar avaliações de risco ou enfrentar penalidades que podem chegar a 10% das receitas. Alguns ativistas temem que isso não leve à remoção de material prejudicial, mas o tempo dirá. Certamente, dizer que a Internet é ingovernável e que a IA cresce mais rapidamente do que conseguimos acompanhar não será suficiente quando o governo do Reino Unido tem a responsabilidade legal de proteger pessoas vulneráveis, como as crianças.

Além da legislação

Outra questão é que entre as pessoas do setor público existe uma falta de compreensão e medo em torno da IA ​​e das suas aplicações. Vejo isso por estar em contato regular com numerosos legisladores e policiais seniores em meu ensino e pesquisa. Muitos não entendem realmente as ameaças representadas pelos deepfakes ou mesmo a pegada digital que podem ter.

Isto está de acordo com um relatório do Gabinete Nacional de Auditoria de Março de 2024, que sugeria que o sector público britânico não está, em grande parte, equipado para responder ou utilizar a IA na prestação de serviços públicos. O relatório concluiu que 70% do pessoal não tinha as competências necessárias para lidar com estas questões. Isto aponta para a necessidade de o governo colmatar esta lacuna através da educação do pessoal.

Homem desfocado andando perto de Whitehall
Os decisores políticos do Reino Unido precisam de ser mais experientes tecnologicamente.
Obturador

Os decisores no governo também tendem a reflectir um certo grupo demográfico mais velho. Embora mesmo os mais jovens possam estar mal informados, parte da solução tem de ser garantir a diversidade etária no conjunto de competências para moldar políticas em torno da IA ​​e dos deepfakes.

Finalmente, há a questão dos recursos policiais. Os meus contactos policiais dizem-me como é difícil estar a par das últimas mudanças tecnológicas nesta área, para não falar da dimensão internacional. É difícil numa altura em que o financiamento público está sob tanta pressão, mas o governo tem de procurar aumentar os recursos nesta área.

É vital que o futuro das imagens assistidas por IA não possa predominar sobre a proteção das crianças. A menos que o Reino Unido combata as suas lacunas legislativas e as questões de competências no sector público, haverá mais Hugh Nelsons. A velocidade da mudança tecnológica e a natureza internacional destes problemas tornam-nos especialmente difíceis, mas ainda assim, muito mais pode ser feito para ajudar

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo