.
Os malfeitores estão usando IA para criar imagens falsas de natureza sexual, que então empregam em esquemas de sextortion.
Golpes desse tipo costumavam ver criminosos roubando imagens íntimas – ou convencendo as vítimas a enviá-las – antes de exigir pagamentos para impedir sua ampla divulgação.
Mas os golpistas agora estão acessando imagens benignas e publicamente disponíveis de sites de mídia social ou outras fontes e usando técnicas de IA para renderizar vídeos ou imagens explícitas e, em seguida, exigir dinheiro – mesmo que o material não seja real.
O FBI emitiu esta semana um consultivo sobre a ameaça, alertando as pessoas para serem cautelosas ao postar ou enviar qualquer imagem de si mesmas, ou informações de identificação, em mídias sociais, aplicativos de namoro ou outros sites online.
A agência disse que houve um “aumento” nos relatórios desde abril de deepfakes sendo usados em golpes de sextortion, com as imagens ou vídeos sendo compartilhados online para assediar as vítimas com exigências de dinheiro, vales-presente ou outros pagamentos. Os golpistas também podem exigir que a vítima envie conteúdo explícito real, de acordo com investigadores federais.
“Muitas vítimas, incluindo menores de idade, não sabem que suas imagens foram copiadas, manipuladas e divulgadas até que alguém as chamou a atenção”, escreveu o FBI, dizendo que as vítimas geralmente ficam sabendo das imagens pelos agressores ou as encontram. na própria internet. “Uma vez circulado, as vítimas podem enfrentar desafios significativos para impedir o compartilhamento contínuo do conteúdo manipulado ou a remoção da Internet”.
Acesso mais fácil às ferramentas de IA
Sextortion é uma tática deprimente comum – como um El Reg cortar descoberto – mas a IA adicionou um toque sombrio a esses esquemas.
No comunicado, o FBI observou os rápidos avanços nas tecnologias de IA e o aumento da disponibilidade de ferramentas que permitem a criação de material deepfake. Por exemplo, a gigante da nuvem Tencent anunciou recentemente um deepfake como serviço por apenas $ 145 por vez.
Essa facilidade de acesso e uso continuará sendo um desafio, de acordo com Ricardo Amper, fundador e CEO da empresa de verificação e autenticação de identidade Incode. Amper defendeu o uso de tal tecnologia, alertando para seus perigos.
“Substituímos as ferramentas de edição de fotos por aplicativos de troca de rosto e filtros na loja de aplicativos”, disse Amper Strong The One. “As redes neurais estão sendo sintetizadas para que qualquer pessoa acesse um software deepfake incrivelmente poderoso em um ponto de entrada baixo”.
Muitos deepfakes são “despreocupados”, acrescentou Amper, mas também alertou “democratizamos o acesso à tecnologia que requer apenas 30 segundos ou um punhado, em vez de milhares, de imagens. As identidades de todos, mesmo aqueles com uma pequena pegada digital, são agora em risco de falsificação de identidade e fraude.
“A capacidade de abuso e desinformação combina com o efeito do aprendizado profundo no desenvolvimento do deepfake, pois os maus atores espalham mentiras convincentes ou fazem personificações difamatórias e convincentes”.
Aprofundando as preocupações sobre deepfakes
Há anos há preocupações contínuas sobre o efeito dos deepfakes na sociedade, chamando a atenção nacional em 2017 com o lançamento de um vídeo enganosamente real do ex-presidente Barack Obama e alimentando preocupações sobre a disseminação acelerada de desinformação.
Tais preocupações surgiram novamente esta semana, quando um vídeo deepfake foi ao ar na TV russa supostamente retratado O presidente russo, Vladimir Putin, declarando a lei marcial no contexto da invasão ilegal em andamento do país na Ucrânia.
Agora deepfakes estão sendo usados para perpetrar crimes sexuais. Nos últimos seis meses, o FBI publicado ao menos dois alertas sobre a ameaça de golpes de sextortion – especialmente contra crianças e adolescentes.
Os usuários da Internet em 2017 foram apresentados a como técnicas de aprendizado profundo e redes neurais podem criar vídeos realistas usando a imagem de uma pessoa quando o rosto da atriz Gal Gadot foi sobreposto em um vídeo adulto existente, de acordo com um relatório [PDF] do Departamento de Segurança Interna dos Estados Unidos.
“Apesar de ser falso, a qualidade do vídeo era boa o suficiente para que um espectador casual pudesse ser convencido – ou não se importar”, dizia o relatório.
O que é para ser feito?
Tal como acontece com modelos de linguagem grande e ferramentas de IA generativas, como ChatGPT, esforços estão em andamento para desenvolver tecnologias que possam detectar textos e imagens gerados por IA. Ferramentas de amplificação de cores que visualizam o fluxo sanguíneo ou algoritmos de aprendizado de máquina treinados em análise espectral podem detectar e examinar comportamentos extremos, disse Amper da Incode.
A Intel afirmou em abril que havia desenvolvido um modelo de IA que poderia detectar um deepfake em milissegundos usando recursos como procurar mudanças sutis na cor que humanos reais exibem, mas são muito detalhados para a IA renderizar.
O CEO da Viakoo, Bud Broomhead, disse Strong The One que existe “uma corrida entre a IA usada para criar deepfakes e a IA usada para detectá-los. Ferramentas como Deeptrace, Sensity e Truepic podem ser usadas para automatizar a detecção de deepfakes, mas sua eficácia varia dependendo se novos métodos estão sendo usado para criar deepfakes que essas ferramentas podem não ter visto antes.”
Dito isto, grande parte da responsabilidade continuará a recair sobre os ombros dos indivíduos. Além das recomendações mencionadas acima, o FBI também sugere que as pessoas tomem medidas como realizar pesquisas on-line frequentes de si mesmas e de seus filhos, aplicar configurações de privacidade em contas de mídia social e usar discrição ao lidar com pessoas on-line.
John Bambenek, principal caçador de ameaças da empresa de segurança cibernética Netenrich, acredita que a inovação da IA pode avançar a ponto de tornar impossível a detecção de deepfakes. Mesmo com as ferramentas disponíveis agora, a maioria dos alvos de esquemas de sextortion deepfake está em uma posição difícil.
“A vítima principal não é famosa”, disse Bambenek Strong The One. “Esses [attacks] são mais frequentemente usados para criar uma vingança sintética onde as vítimas não têm capacidade real de responder ou se proteger do assédio gerado.” ®
.