.
A forma mais extrema de material de abuso sexual infantil foi responsável por um quinto desse conteúdo encontrado online no ano passado, de acordo com um relatório.
O abuso de categoria A representou 20% das imagens ilegais descobertas on-line no ano passado pela Internet Watch Foundation, um órgão com sede no Reino Unido que monitora a distribuição de material de abuso sexual infantil (CSAM). Encontrou mais de 51.000 instâncias de tal conteúdo, que pode incluir as imagens mais graves, incluindo estupro, sadismo e bestialidade.
O relatório anual da IWF disse que o total de 2022 para imagens da categoria A foi o dobro do valor de 2020 e o aumento foi em parte devido a sites criminosos que vendem vídeos e imagens de tal abuso.
“Vimos criminosos procurando explorar maneiras cada vez mais insidiosas de lucrar com o abuso de crianças”, disse Susie Hargreaves, diretora executiva da IWF. “Eu não acho que posso exagerar o mal que está sendo feito aqui. Estas são crianças reais, e o sofrimento infligido a elas é inimaginável.
“Elas estão sendo estupradas e submetidas a tortura sexual, e os criminosos estão ganhando dinheiro com isso. É realmente terrível.”
A IWF disse que o número de páginas da web dedicadas a ganhar dinheiro com o CSAM mais que dobrou desde 2020, com quase 29.000 dessas páginas identificadas no ano passado. Um analista de conteúdo da IWF disse que o conteúdo de abuso sexual infantil está sendo tratado como uma “mercadoria” em alguns sites.
A IWF disse que atuou em mais de 250.000 páginas da web no ano passado, um aumento de 1% em relação a 2021, com três quartos delas contendo imagens autogeradas, nas quais a vítima é manipulada para registrar seu próprio abuso antes de ser compartilhado online.
A NSPCC, uma instituição de caridade de proteção à criança, disse que os números são “incrivelmente preocupantes”. Ele disse que o governo também deve atualizar a lei de segurança online para garantir que os gerentes seniores sejam responsabilizados pela presença de CSAM em seus sites.
Sob o projeto de lei, os executivos de tecnologia enfrentam a ameaça de uma pena de prisão de dois anos por não protegerem as crianças de danos online. No entanto, a disposição se aplica à proteção de crianças contra conteúdo, como material que promove automutilação e distúrbios alimentares, e não se aplica ao tratamento de CSAM.
O ministro da segurança, Tom Tugendhat, disse que as empresas que usam serviços altamente criptografados – o que significa que apenas o remetente e o destinatário podem ver o conteúdo – devem incorporar recursos de segurança que ajudem a detectar abusos.
“As empresas precisam garantir que recursos como criptografia de ponta a ponta tenham os recursos de segurança necessários integrados para que não fiquem cegos para o abuso que ocorre em suas plataformas”, disse ele.
O serviço de mensagens criptografadas WhatsApp disse no mês passado que deixaria o Reino Unido em vez de aceitar criptografia enfraquecida. O WhatsApp e outros serviços criptografados estão preocupados com as disposições do projeto de lei que podem forçá-los a aplicar políticas de moderação de conteúdo que equivaleriam a contornar a criptografia de ponta a ponta.
-
O NSPCC oferece apoio a crianças em 0800 1111 e adultos preocupados com uma criança em 0808 800 5000. A Associação Nacional para Pessoas Abusadas na Infância (Napac) oferece apoio a sobreviventes adultos em 0808 801 0331.
.