Estudos/Pesquisa

Quão seguros são os sistemas de autenticação por voz? Os invasores podem quebrar a autenticação de voz com até 99% de sucesso em seis tentativas – Strong The One

.

Cientistas da computação da Universidade de Waterloo descobriram um método de ataque que pode contornar com sucesso os sistemas de segurança de autenticação por voz com uma taxa de sucesso de até 99% após apenas seis tentativas.

A autenticação por voz – que permite às empresas verificar a identidade de seus clientes por meio de uma “impressão de voz” supostamente exclusiva – tem sido cada vez mais usada em serviços bancários remotos, call centers e outros cenários críticos de segurança.

“Ao se inscrever na autenticação de voz, você é solicitado a repetir uma determinada frase com sua própria voz. O sistema então extrai uma assinatura vocal exclusiva (impressão de voz) dessa frase fornecida e a armazena em um servidor”, disse Andre Kassis, um especialista em segurança de computadores e Privacidade PhD candidato e principal autor de um estudo detalhando a pesquisa.

“Para futuras tentativas de autenticação, você é solicitado a repetir uma frase diferente e os recursos extraídos dela são comparados com a impressão de voz que você salvou no sistema para determinar se o acesso deve ser concedido”.

Depois que o conceito de impressões de voz foi introduzido, os agentes mal-intencionados rapidamente perceberam que poderiam usar o software “deepfake” habilitado para aprendizado de máquina para gerar cópias convincentes da voz de uma vítima usando apenas cinco minutos de áudio gravado.

Em resposta, os desenvolvedores introduziram “contramedidas de falsificação” – verificações que poderiam examinar uma amostra de fala e determinar se ela foi criada por um humano ou por uma máquina.

Os pesquisadores de Waterloo desenvolveram um método que evita contramedidas de falsificação e pode enganar a maioria dos sistemas de autenticação de voz em seis tentativas. Eles identificaram os marcadores no áudio deepfake que traem que ele é gerado por computador e escreveram um programa que remove esses marcadores, tornando-o indistinguível do áudio autêntico.

Em um teste recente contra o sistema de autenticação de voz do Amazon Connect, eles alcançaram uma taxa de sucesso de 10% em um ataque de quatro segundos, com essa taxa subindo para mais de 40% em menos de trinta segundos. Com alguns dos sistemas de autenticação de voz menos sofisticados que visaram, eles alcançaram uma taxa de sucesso de 99% após seis tentativas.

Kassis afirma que, embora a autenticação de voz seja obviamente melhor do que nenhuma segurança adicional, as contramedidas de falsificação existentes são extremamente falhas.

“A única maneira de criar um sistema seguro é pensar como um invasor. Se não o fizer, estará apenas esperando para ser atacado”, disse Kassis.

O supervisor de Kassis, o professor de ciência da computação Urs Hengartner acrescentou: “Ao demonstrar a insegurança da autenticação de voz, esperamos que as empresas que dependem da autenticação de voz como seu único fator de autenticação considerem a implantação de medidas de autenticação adicionais ou mais fortes”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo