Ciência e Tecnologia

Falsificações profundas de voz geradas por IA não são assustadoras – ainda

.

Em meio à inteligência-artificial-generativa frenesi dos últimos meses, os pesquisadores de segurança têm revisitado a preocupação de que as vozes geradas por IA, ou deepfakes de voz, tenham se tornado suficientemente convincentes e fáceis de produzir para que os golpistas comecem a usá-las em massa.

Houve alguns incidentes de alto perfil nos últimos anos em que os cibercriminosos teriam usado deepfakes de voz de CEOs de empresas na tentativa de roubar grandes quantias de dinheiro – sem mencionar que os documentaristas criaram postumamente deepfakes de voz de Anthony Bourdain. Mas os criminosos estão no ponto de virada em que qualquer chamada de spam pode conter a voz clonada de seu irmão procurando desesperadamente “dinheiro para fiança?” Não, dizem os pesquisadores – pelo menos ainda não.

A tecnologia para criar deepfakes de voz robustos e convincentes é poderosa e cada vez mais prevalente em configurações controladas ou situações em que extensas gravações da voz de uma pessoa estão disponíveis. No final de fevereiro, o repórter do Motherboard Joseph Cox publicou descobertas de que havia gravado cinco minutos de si mesmo conversando e depois usado um serviço de IA generativo disponível publicamente, o ElevenLabs, para criar deepfakes de voz que derrotavam o sistema de autenticação de voz de um banco. Mas, como as deficiências da IA ​​generativa em outros meios, incluindo limitações de chatbots de geração de texto, os serviços deepfake de voz ainda não conseguem produzir resultados perfeitos de forma consistente.

“Dependendo do cenário de ataque, os recursos em tempo real e a qualidade da amostra de voz roubada devem ser considerados”, diz Lea Schönherr, pesquisadora de aprendizado de máquina de segurança e adversária no CISPA Helmholtz Center for Information Security na Alemanha. “Embora muitas vezes se diga que são necessários apenas alguns segundos da voz roubada, a qualidade e a duração têm um grande impacto no resultado do deepfake de áudio.”

Golpes digitais e ataques de engenharia social, como phishing, são uma ameaça aparentemente crescente, mas os pesquisadores observam que os golpes nos quais os invasores ligam para uma vítima e tentam se passar por alguém que o alvo conhece existem há décadas – sem necessidade de IA. E o próprio fato de sua longevidade significa que essas trapaças são pelo menos um pouco eficazes em induzir as pessoas a enviar dinheiro aos invasores.

“Esses golpes existem desde sempre. Na maioria das vezes, não funciona, mas às vezes eles pegam uma vítima que está preparada para acreditar no que estão dizendo, por qualquer motivo”, diz Crane Hassold, pesquisador de engenharia social de longa data e ex-analista de comportamento digital do FBI. “Muitas vezes essas vítimas vão jurar que a pessoa com quem estavam falando era a pessoa personificada quando, na realidade, é apenas o cérebro preenchendo lacunas.”

Hassold diz que sua avó foi vítima de um golpe de identidade em meados dos anos 2000, quando os invasores ligaram e fingiram ser ele, persuadindo-a a enviar US$ 1.500.

“Com minha avó, o golpista não disse quem estava ligando inicialmente, eles apenas começaram a falar sobre como haviam sido presos enquanto participavam de um festival de música no Canadá e precisavam dela para enviar dinheiro para fiança. A resposta dela foi ‘Crane, é você?’ e então eles tinham exatamente o que precisavam”, diz ele. “Os golpistas estão essencialmente induzindo suas vítimas a acreditar no que eles querem que elas acreditem.”

Assim como acontece com muitos golpes de engenharia social, os golpes de representação de voz funcionam melhor quando o alvo é pego em um senso de urgência e apenas tentando ajudar alguém ou concluir uma tarefa que acredita ser de sua responsabilidade.

“Minha avó me deixou uma mensagem de voz enquanto eu dirigia para o trabalho dizendo algo como ‘Espero que você esteja bem. Não se preocupe, enviei o dinheiro e não vou contar a ninguém’”, diz Hassold.

Justin Hutchens, diretor de pesquisa e desenvolvimento da empresa de segurança cibernética Set Solutions, diz que vê os golpes de voz deepfake como uma preocupação crescente, mas também está preocupado com um futuro em que os golpes baseados em IA se tornem ainda mais automatizados.

“Espero que, em um futuro próximo, comecemos a ver os agentes de ameaças combinando a tecnologia de voz deepfake com as interações de conversação suportadas por grandes modelos de linguagem”, diz Hutchens sobre plataformas como o ChatGPT da Open AI.

Por enquanto, porém, Hassold adverte contra ser muito rápido em presumir que os golpes de representação de voz estão sendo conduzidos por deepfakes. Afinal, a versão analógica do golpe ainda está por aí e atrai o alvo certo na hora certa.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo