News

Deepfakes em tempo real são uma ameaça. Como se proteger

.

Você provavelmente já viu vídeos deepfake na internet que injetam fac-símiles de pessoas famosas em situações estranhas ou engraçadas – por exemplo, um falso Tom Cruise fazendo “limpeza industrial” ou, em um esforço verdadeiramente meta, um Morgan Freeman artificial exaltando “a era da realidade sintética”.

Agora imagine receber um telefonema de alguém que fala exatamente como seu filho, implorando por ajuda de emergência. Mesma tecnologia, mas ninguém está rindo.

Especialistas em segurança cibernética dizem que a tecnologia deepfake avançou a ponto de poder ser usada em tempo real, permitindo que fraudadores repliquem a voz, a imagem e os movimentos de alguém em uma ligação ou reunião virtual. A tecnologia também está amplamente disponível e relativamente fácil de usar, dizem eles. E está cada vez melhor.

“Graças às ferramentas de IA que criam ‘mídia sintética’ ou geram conteúdo, uma porcentagem crescente do que estamos vendo não é autêntica e está ficando mais difícil dizer a diferença”, alertou a Federal Trade Commission.

Os pesquisadores dizem que a tecnologia para deepfakes em tempo real existe há quase uma década. O que há de novo é a gama de ferramentas disponíveis para fazê-los.

“Sabemos que não estamos preparados como sociedade” para essa ameaça, disse Andrew Gardner, vice-presidente de pesquisa, inovação e IA da Gen. Em particular, disse ele, não há para onde ir se você for confrontado com um potencial deepfake golpe e você precisa de ajuda imediata para verificá-lo.

Os deepfakes em tempo real foram usados ​​para assustar os avós e fazê-los enviar dinheiro para parentes simulados, conseguir empregos em empresas de tecnologia em uma tentativa de obter informações privilegiadas, influenciar os eleitores e desviar dinheiro de homens e mulheres solitários. Os fraudadores podem copiar uma gravação da voz de alguém que foi postada online e usar o áudio capturado para se passar por um ente querido da vítima; um homem de 23 anos é acusado de enganar avós em Newfoundland em $ 200.000 em apenas três dias usando essa técnica.

Ferramentas para eliminar essa última geração de deepfakes também estão surgindo, mas nem sempre são eficazes e podem não estar acessíveis para você. É por isso que os especialistas aconselham seguir algumas etapas simples para proteger você e seus entes queridos do novo tipo de golpe.

O termo deepfake é uma abreviação de uma simulação alimentada por tecnologia de aprendizado profundo – inteligência artificial que ingere oceanos de dados para tentar replicar algo humano, como ter uma conversa (por exemplo, ChatGPT) ou criar uma ilustração (por exemplo, Dall-E). Gardner disse que ainda é uma proposta cara e demorada desenvolver essas ferramentas, mas usá-las é comparativamente rápido e fácil.

Yisroel Mirsky, pesquisador de IA e especialista em deepfake da Ben-Gurion University of the Negev, disse que a tecnologia avançou a ponto de ser possível fazer um vídeo deepfake a partir de uma única foto de uma pessoa e um clone “decente” de um voz de apenas três ou quatro segundos de áudio. Mas Gardner disse que as ferramentas amplamente disponíveis para fazer deepfakes ficam atrás do estado da arte; eles exigem cerca de cinco minutos de áudio e uma a duas horas de vídeo.

Independentemente disso, graças a sites como Facebook, Instagram e YouTube, há muitas imagens e áudios para os fraudadores encontrarem.

Mirsky disse que é fácil imaginar um invasor procurando no Facebook para identificar os filhos de um alvo em potencial, chamando o filho para gravar áudio suficiente para clonar sua voz e, em seguida, usar um deepfake do filho para implorar ao alvo por dinheiro para sair de um aperto de algum tipo.

A tecnologia está se tornando tão eficiente, disse ele, que você pode clonar um rosto ou uma voz com um computador básico para jogos. E o software é “realmente apontar e clicar”, disse ele, facilmente disponível online e configurável com alguma programação básica.

Para ilustrar a eficácia dos deepfakes em tempo real, o LexisNexis Risk Solutions’ Government Group compartilhou um vídeo que David Maimon, professor de criminologia da Georgia State University, pegou na dark web de um aparente golpe de pesca em andamento. Mostrava um bate-papo online entre um homem mais velho e uma jovem que estava pedindo um empréstimo para conhecer o homem no Canadá. Mas em uma terceira janela, você podia ver que um homem estava realmente dizendo as palavras que saíam da boca da mulher com voz de mulher – ela era uma deepfake e ele era um golpista.

Essa técnica é conhecida como reconstituição, disseram Mirsky e Wenke Lee, do Georgia Institute of Technology, em um artigo publicado em 2020. Ela também pode ser usada para “executar atos de difamação, causar falta de credibilidade, espalhar desinformação e adulterar evidências”, escreveram eles. . Outra abordagem é a substituição, em que o rosto ou o corpo do alvo é colocado em outra pessoa, como nos vídeos pornográficos de vingança.

Mas como, exatamente, os fraudadores estão usando as ferramentas permanece um mistério, disse Gardner. Isso porque só sabemos o que eles foram pegos fazendo.

Haywood Talcove, executivo-chefe do Grupo Governamental da LexisNexis Risk Solutions, disse que a nova tecnologia pode contornar algumas das técnicas de segurança que as empresas vêm implantando no lugar de senhas. Por exemplo, ele apontou para o processo de identificação online em duas etapas da Califórnia, que faz com que os usuários carreguem duas coisas: uma foto de sua carteira de motorista ou carteira de identidade e, em seguida, uma selfie recém-tirada. Os fraudadores podem comprar uma identidade falsa da Califórnia online por alguns dólares e, em seguida, usar um software deepfake para gerar um rosto correspondente para a selfie. “É uma faca quente na manteiga”, disse ele.

Da mesma forma, Talcove disse que as empresas financeiras precisam parar de usar ferramentas de identificação por voz para desbloquear contas. “Eu ficaria nervoso se [at] meu banco, minha voz era minha senha”, disse. “Apenas usando apenas a voz, não funciona mais.” O mesmo vale para o reconhecimento facial, disse, acrescentando que a tecnologia está no fim de sua vida útil como forma de controle de acesso.

A Cybercrime Support Network, uma organização sem fins lucrativos que ajuda indivíduos e empresas vitimadas online, geralmente trabalha com alvos de golpes de romance e incentiva as pessoas a fazer chats de vídeo com seus pretendentes para tentar eliminar os golpistas. Ally Armeson, diretora do programa da rede, disse que apenas dois ou três anos atrás, eles podiam dizer aos clientes para procurar falhas fáceis de detectar, como imagens congeladas. Mas nas últimas semanas, ela disse, a rede foi contatada por vítimas de golpes que disseram ter feito um bate-papo por vídeo de 10 ou 20 minutos com seu suposto pretendente, “e com certeza era a pessoa que eles me enviaram na foto. ”

Ela acrescentou: “As vítimas disseram: ‘A cabeça meio que parecia estranha no corpo, então parecia um pouco fora’”. Mas não é incomum que as pessoas ignorem sinais de alerta, disse ela. “Eles querem acreditar que o vídeo é real, então vão ignorar pequenas discrepâncias.”

(Vítimas de golpes românticos nos Estados Unidos relataram perdas de US$ 1,3 bilhão no ano passado.)

Deepfakes em tempo real também representam uma nova ameaça perigosa para as empresas. Muitas empresas estão treinando funcionários para reconhecer ataques de phishing de estranhos, disse Mirsky, mas ninguém está realmente se preparando para chamadas de deepfakes com a voz clonada de um colega ou chefe.

“As pessoas vão confundir familiaridade com autenticidade”, disse ele. “E, como resultado, as pessoas vão cair nesses ataques.”

Como se proteger

Talcove ofereceu uma maneira simples e difícil de se proteger contra deepfakes que se passam por um membro da família: tenha uma palavra-código secreta que todos os membros da família saibam, mas que os criminosos não adivinhariam. Se alguém que diz ser sua filha, neto ou sobrinho ligar, disse Talcove, pedir a palavra-código pode separar os verdadeiros entes queridos dos falsos.

“Toda família agora precisa de uma palavra-código”, disse ele.

Escolha algo simples e facilmente memorável que não precise ser escrito (e não seja postado no Facebook ou Instagram), disse ele, e depois perfure a memória de sua família. “Você precisa garantir que eles saibam e pratiquem, pratiquem, pratiquem”, disse Talcove.

Gardner também defendeu palavras de código. “Acho que a preparação ajuda bastante” na defesa contra golpes deepfake, disse ele.

Armeson disse que sua rede ainda diz às pessoas para procurar certas pistas em videochamadas, incluindo seu suposto amante piscando muito ou pouco, tendo sobrancelhas que não se encaixam no rosto ou cabelo no lugar errado e pele que não combina a idade deles. Se a pessoa estiver usando óculos, verifique se o reflexo que eles dão é realista, diz a rede – “deepfakes muitas vezes não conseguem representar totalmente a física natural da iluminação”.

Ela também pede que as pessoas façam estes testes simples: peça à outra pessoa na videochamada para virar a cabeça e colocar a mão na frente do rosto. Essas manobras podem ser reveladoras, disse ela, porque os deepfakes muitas vezes não foram treinados para fazê-las de forma realista.

Ainda assim, ela admitiu, “estamos apenas jogando na defesa”. Os fraudadores “sempre estarão à nossa frente”, eliminando as falhas que revelam o golpe, disse ela. “É irritante.”

Em última análise, disse ela, a maneira mais confiável de desmascarar deepfakes pode ser insistir em uma reunião pessoal. “Temos que ser realmente analógicos sobre isso. Não podemos confiar apenas na tecnologia.”

Existem ferramentas de software que procuram automaticamente falhas e padrões gerados por IA em um esforço para separar o áudio e o vídeo legítimos dos falsos. Mas Mirsky disse que “este é potencialmente um jogo perdido” porque, à medida que a tecnologia melhora, os sinais reveladores que costumavam trair as falsificações desaparecerão.

Mirsky e sua equipe na Ben-Gurion University desenvolveram uma abordagem diferente, chamada D-CAPTCHA, que opera com o mesmo princípio que alguns sites usam para impedir que bots enviem formulários online. Um sistema D-CAPTCHA apresenta um teste projetado para desconcertar os deepfakes atuais em tempo real – por exemplo, pedir aos chamadores que cantarolem, riam, cantem ou apenas limpem a garganta.

O sistema, que ainda não foi comercializado, pode assumir a forma de uma sala de espera para autenticar convidados em reuniões virtuais confidenciais ou um aplicativo que verifica ligações suspeitas. Na verdade, disse Mirsky, “podemos desenvolver aplicativos que podem tentar capturar essas chamadas suspeitas e examiná-las antes de serem conectadas”.

Gardner ofereceu outra nota esperançosa. As experiências que as pessoas estão tendo agora com IA e aplicativos como o ChatGPT, disse ele, tornaram as pessoas mais rápidas para questionar o que é real e o que é falso, e olhar mais criticamente para o que estão vendo.

“O fato de as pessoas estarem tendo essas conversas de IA individualmente é, eu acho, ajudando”, disse ele.

Sobre a equipe de jornalismo do The Times Utility

Este artigo é da equipe de jornalismo utilitário do The Times. Nossa missão é ser essencial para a vida dos californianos do sul, publicando informações que solucionem problemas, esclareçam dúvidas e ajudem na tomada de decisões. Atendemos audiências dentro e ao redor de Los Angeles – incluindo assinantes atuais do Times e diversas comunidades que historicamente não tiveram suas necessidades atendidas por nossa cobertura.

Como podemos ser úteis para você e sua comunidade? Utilitário de e-mail (arroba) latimes.com ou um de nossos jornalistas: Matt Ballinger, Jon Healey, Ada Tseng, Jessica Roy e Karen Garcia.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo