Ciência e Tecnologia

Quão real é a ameaça deepfake?

O cibercrime adota rapidamente novas tecnologias. Uma das tendências mais preocupantes é a ascensão dos deepfakes – imagens forjadas, áudio ou vídeo criados com o auxílio de inteligência artificial, que os faz parecer absolutamente reais – pelo menos a olho nu. A questão é ainda mais perturbadora ultimamente, à medida que as ferramentas para geração de IA se tornam cada vez mais difundidas e acessíveis ao público em geral. Ao mesmo tempo, as tecnologias de IA estão sempre aumentando em sofisticação (de tirar o fôlego) a cada nova versão e agora permitem a criação de imagens de aparência incrivelmente realista e áudio extremamente convincente.

Deepfakes são usados ​​para vários fins, incluindo vingança, fraude financeira, manipulação política e assédio. Em nosso mundo hiperconectado, os fraudadores podem facilmente coletar fotos e até vídeos de vítimas em potencial – especialmente quando se trata de figuras públicas. No entanto, os cibercriminosos modernos tendem a se especializar nas áreas de especialização escolhidas. A criação de deepfakes de alta qualidade requer conhecimento técnico e software avançado, por isso surgiram vários especialistas e serviços clandestinos. Agora, as pessoas que procuram criar vídeos e fotos falsos recorrem a especialistas – prontamente disponíveis, como você deve ter adivinhado, na darkweb.

O mercado darknet deepfake: oferta e demanda

Nossa pesquisa descobriu que há uma demanda significativa por deepfakes – que supera em muito a oferta deles. Indivíduos que concordam em criar vídeos falsos estão sendo procurados desesperadamente. E isso é bastante preocupante, pois, como todos sabemos, a demanda cria a oferta; assim, prevemos que no futuro próximo veremos de fato um aumento significativo nos incidentes envolvendo deepfakes de alta qualidade.

Leia Também: Deepfake bot pode forjar sua foto nua em segundos no Telegram

E, a julgar pelo conteúdo das postagens do fórum da darkweb, os cibercriminosos estão buscando resultados de alta qualidade. Apesar da disponibilidade aberta de ferramentas de criação de deepfake, os criminosos procuram apenas criadores que possam produzir vídeos de alta qualidade com som perfeito e sem atrasos entre vídeo e áudio.

Uma proporção significativa de anúncios de pesquisa deepfake está relacionada a este ou aquele cryptoscam. Normalmente, eles estão conectados a golpes de distribuição de criptomoedas , mas às vezes vimos anúncios mais peculiares. Por exemplo, encontramos uma postagem que procurava um profissional que pudesse criar um vídeo deepfake de alta qualidade que pudesse ser usado para burlar o sistema de verificação de reconhecimento facial da Binance. Assim, os cibercriminosos estão tentando usar deepfakes para burlar os sistemas de segurança biométricos e acessar as contas das vítimas para roubar dinheiro diretamente.

Quanto ao fornecimento — o custo de criação ou compra de deepfakes prontos varia de acordo com a complexidade de um determinado projeto e a qualidade do produto final. A notabilidade do objeto personificado também pode influenciar o preço (geralmente celebridades ou figuras políticas). Os preços por minuto do vídeo deepfake podem variar de US$ 300 a US$ 20.000. Se o comprador estiver disposto a pagar, os criadores de deepfake podem oferecer vídeos incrivelmente realistas e transmitir emoções autênticas, tornando-os indistinguíveis de imagens genuínas. Aqui estão aqueles exemplos brilhantes que prometemos anteriormente.

Representação de Vitalik Buterin

Descobrimos um fornecedor que ofereceu um serviço premium para criar um deepfake de alta qualidade do cofundador da Etherium, Vitaly Buterin, completo com voz e vídeo totalmente sintetizados. Ficou claro que a produção não envolveria apenas a dublagem de vídeos existentes, mas sim um serviço completo de produção, com o fornecedor afirmando que “Vitalik está pronto para qualquer uma de suas fantasias”. O tempo estimado de produção de vídeo neste serviço foi inferior a duas semanas, com o produto final sendo um vídeo em inglês que custaria $ 20.000 por minuto.

Transmissões de criptofraude

Outro provedor se orgulha de ser capaz de fazer deepfakes da mais alta qualidade para fins de fraude de criptomoeda. Seu serviço inclui a criação de “Cryptostreams” ou “Fake Crypto Giveaways”, um golpe popular em que os fraudadores coletam criptomoedas transmitindo programas falsos de distribuição de criptomoedas, prometendo dobrar qualquer pagamento de criptomoeda enviado a eles. Para criar esses deepfakes, os golpistas geralmente usam imagens de celebridades para lançar transmissões ao vivo falsas em plataformas de mídia social. O provedor até mostra uma página pré-gerada em que as vítimas são solicitadas a transferir de 2.500 a um milhão de XRP com a promessa de dobrar o pagamento. Como resultado, a vítima pode perder de US$ 1.000 a US$ 460.000.

Vídeos pornográficos falsos

Outro ramo da indústria de produção deepfake é a criação de pornografia falsa. Normalmente, o pornô falso são apenas vídeos pornográficos comuns com rostos trocados, feitos por vários motivos: às vezes apenas para entretenimento, mas também podem ser usados ​​para fins muito mais sinistros, como assédio online, cyberbullying ou chantagem.

Além disso, alguns criadores de deepfake estão fazendo tutoriais sobre como fazer esses vídeos pornográficos falsos, com conselhos sobre como selecionar o material de origem e como trocar rostos para criar uma falsificação convincente.

Possíveis consequências

O uso de deepfakes para fins criminosos pode impactar nossas vidas de muitas maneiras. Ele representa uma séria ameaça para indivíduos, organizações e sociedade como um todo. Além disso, o fato de que qualquer história ou artigo de notícias na Internet possa ser um deepfake semeia a desconfiança em relação a qualquer informação disponível publicamente – induzindo paranóia e insegurança. Algumas das possíveis consequências do uso de deepfake incluem:

Desinformação

Deepfakes podem ser usados ​​para a divulgação em massa de informações falsas e manipulação da opinião pública. Eles podem ser usados ​​para criar notícias falsas, propaganda política ou propaganda enganosa. Isso pode ter sérias consequências para a confiança do público.

Exemplos: Uma das instâncias mais inofensivas de uso de deepfake foi a história de reportagem fotográfica super-realista do terremoto da Grande Cascadia que circulou na web, um evento que nunca aconteceu. Mas houve um caso muito mais perigoso – curiosamente, não do uso de deepfake em si , mas da mera suspeita de que um deepfake havia sido usado no Gabão em 2018. Naquela época, corria o boato de que o presidente gabonês Ali Bongo havia adoecido gravemente. Em resposta, o governo do Gabão divulgou um vídeo que se suspeitava ser um deepfake – causando mais tensão e alimentando suspeitas de que o governo estava escondendo algo. Essa crença foi citada como uma das razões para uma tentativa de golpe uma semana depois.

Fraude cibernética

Deepfakes são usados ​​para todos os tipos de fraude cibernética – desde os criptoscams acima mencionados até aqueles que terminam com ataques direcionados a empresas.

Exemplos: um vídeo criado artificialmente de Elon Musk prometendo altos retornos de um esquema duvidoso de investimento em criptomoeda se tornou viral no ano passado, levando os usuários a perder todo o seu dinheiro. Em 2019, os fraudadores criaram um deepfake de áudio convincente da voz do CEO de uma grande empresa de energia do Reino Unido. Eles enganaram um executivo sênior da empresa para transferir € 220.000 (US$ 243.000) para um fornecedor húngaro. O executivo acreditava estar seguindo as instruções do CEO, mas na verdade a gravação era falsa.

Danos à reputação e violações de privacidade

Deepfakes podem ser usados ​​para prejudicar a reputação de indivíduos ou organizações. Por exemplo, um vídeo deepfake pode ser criado para retratar alguém envolvido em atividades ilegais ou imorais. Isso pode levar a danos à reputação e/ou danos pessoais.

Exemplo: vídeos deepfake da atriz Scarlett Johansson surgiram online, mostrando seu rosto sobreposto aos corpos de atrizes pornográficas em cenas explícitas. Na verdade, este foi um vídeo deepfake criado com fotos privadas vazadas no início de 2011. Seu representante chamou isso de “violação grosseira” de seus direitos e disse que ela estava explorando opções legais para removê-los. O incidente acima mencionado com o CEO da empresa de energia também levou a uma perda significativa de reputação devido ao fato de que o funcionário foi enganado para transferir esses fundos. À medida que a notícia do golpe se espalhava, os clientes da empresa expressaram preocupação sobre a capacidade das empresas de fornecer segurança de seus dados e informações financeiras.

Roubo de identidade

Já mencionamos um anúncio da darkweb em busca de meios para burlar a autenticação biométrica. Nem todo serviço tem um sistema de verificação de reconhecimento, mas o deepfake pode ajudar mesmo com serviços regulares de suporte ao cliente. Veja como isso pode funcionar: primeiro, o cibercriminoso obtém informações pessoais do proprietário da conta-alvo: nome, endereço, número de telefone etc. sua conta ou está passando por dificuldades técnicas. Para verificar a identidade, o provedor de serviços de pagamento pode solicitar uma gravação de vídeo ou áudio do titular da conta executando uma ação específica. Usando os dados coletados, os criminosos podem criar um vídeo ou áudio deepfake representando o verdadeiro proprietário da conta executando a ação solicitada. Como resultado,

Como se manter seguro

O conselho mais óbvio, mas deprimente, é simplesmente “nunca mais confie em seus olhos ou ouvidos”. No entanto, há esperança. As mesmas tecnologias de inteligência artificial que estão ajudando a criar deepfakes podem ser usadas para distinguir vídeos, fotos e áudio genuínos dos falsos. E essas ferramentas estão surgindo lentamente no mercado. Esperemos que no futuro próximo os meios de comunicação, mensageiros e talvez até navegadores sejam equipados com tais tecnologias.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo