News

Imagens de abuso infantil ‘espantosamente realistas’ sendo geradas usando IA | Notícias de ciência e tecnologia

.

A inteligência artificial pode ser usada para gerar “quantidades sem precedentes” de material realista sobre abuso sexual infantil, alertou um grupo de segurança online.

A Internet Watch Foundation (IWF) disse que já estava achando “espantosamente realista” IA-criou imagens que muitas pessoas achariam “indistinguíveis” das reais.

As páginas da Web que o grupo investigou, algumas das quais foram divulgadas pelo público, apresentavam crianças de até três anos.

A IWF, que é responsável por encontrar e remover material de abuso sexual infantil na internet, alertou que eles são realistas o suficiente para que seja mais difícil identificar quando crianças reais estão em perigo.

A executiva-chefe da IWF, Susie Hargreaves, convocou o primeiro-ministro Rishi Sunak para tratar a questão como uma “prioridade máxima” quando a Grã-Bretanha sediar uma cúpula global de IA no final deste ano.

Ela disse: “Atualmente, não estamos vendo essas imagens em grande número, mas está claro para nós que existe potencial para criminosos produzirem quantidades sem precedentes de imagens realistas de abuso sexual infantil.

“Isso seria potencialmente devastador para a segurança na internet e para a segurança das crianças online”.

Risco de imagens AI ‘aumentando’

Embora imagens dessa natureza geradas por IA sejam ilegais no Reino Unido, a IWF disse que os rápidos avanços da tecnologia e o aumento da acessibilidade significam que a escala do problema em breve poderá dificultar o acompanhamento da lei.

A National Crime Agency (NCA) disse que o risco está “aumentando” e sendo levado “extremamente a sério”.

Chris Farrimond, diretor de liderança de ameaças da NCA, disse: “Existe uma possibilidade muito real de que, se o volume de material gerado por IA aumentar, isso pode ter um grande impacto nos recursos de aplicação da lei, aumentando o tempo que levamos para identificar crianças reais. precisam de proteção”.

Sunak disse que a próxima cúpula global, prevista para o outono, debaterá as “guardas” regulatórias que podem mitigar os riscos futuros impostos pela IA.

Ele já se reuniu com grandes players do setorincluindo números de Google assim como ChatGPT fabricante OpenAI.

Um porta-voz do governo disse à Strong The One: “O conteúdo de exploração e abuso sexual infantil gerado por IA é ilegal, independentemente de representar uma criança real ou não, o que significa que as empresas de tecnologia serão obrigadas a identificar proativamente o conteúdo e removê-lo sob o Online Safety Bill, que é projetado para acompanhar as tecnologias emergentes como AI.

“O Projeto de Lei de Segurança Online exigirá que as empresas tomem medidas proativas no combate a todas as formas de abuso sexual infantil online, incluindo aliciamento, transmissão ao vivo, material de abuso sexual infantil e imagens proibidas de crianças – ou enfrentarão multas pesadas”.

Consulte Mais informação:
IA é uma ‘ameaça à democracia’
Por que a transparência é crucial para o futuro da IA

Use o navegador Chrome para um player de vídeo mais acessível

Sunak elogia o potencial da IA

Infratores ajudando uns aos outros a usar IA

A IWF disse que também encontrou um “manual” online escrito por infratores para ajudar outras pessoas a usar IA para produzir imagens de abuso ainda mais realistas, contornando as medidas de segurança que os geradores de imagens implementaram.

Como IA generativa baseada em texto, como ChatGPT, ferramentas de imagem como DALL-E 2 e Midjourney são treinadas em dados de toda a Internet para entender prompts e fornecer resultados apropriados.

Clique para assinar o Strong The One Daily onde quer que você obtenha seus podcasts

O DALL-E 2, um popular gerador de imagens do criador do ChatGPT, OpenAI, e o Midjourney dizem que limitam os dados de treinamento de seu software para restringir sua capacidade de criar determinado conteúdo e bloqueiam algumas entradas de texto.

A OpenAI também usa sistemas de monitoramento automatizados e humanos para proteção contra uso indevido.

A Sra. Hargreaves disse que as empresas de IA devem se adaptar para garantir que suas plataformas não sejam exploradas.

“O abuso contínuo dessa tecnologia pode ter consequências profundamente sombrias – e pode expor cada vez mais pessoas a esse conteúdo prejudicial”, disse ela.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo