.
O governo federal deveria usar parte dos US$ 10 bilhões alocados no orçamento para defesas de segurança cibernética para combater pessoas que usam IA para contornar seguranças biométricas, incluindo autenticação de voz, disse um senador dos Verdes.
Na sexta-feira, o Guardian Australia informou que o sistema de autenticação de voz do Centrelink pode ser enganado usando um serviço de clonagem de IA online gratuito e apenas quatro minutos de áudio da voz do usuário.
Depois que o jornalista do Guardian Australia Nick Evershed clonou sua própria voz, ele conseguiu acessar sua conta usando sua voz clonada e seu número de referência do cliente.
O serviço de impressão de voz, fornecido pela Nuance, empresa de software de voz da Microsoft, estava sendo usado por 3,8 milhões de clientes do Centrelink no final de fevereiro, e mais de 7,1 milhões de pessoas verificaram sua voz usando o mesmo sistema do Australian Taxation Office.
Apesar de ter sido alertado sobre a vulnerabilidade na semana passada, a Services Australia não indicou que mudará seu uso de ID de voz, dizendo que a tecnologia é um “método de autenticação altamente seguro” e a agência “varre continuamente ameaças potenciais e faz melhorias contínuas para garantir que o cliente segurança”.
O senador dos Verdes, David Shoebridge, disse que a descoberta era “profundamente preocupante” para as pessoas que dependem dos serviços do governo e que precisava haver uma estrutura regulatória para a coleta e uso de dados biométricos.
“As preocupações aqui vão além do uso de IA para enganar a impressão de voz”, disse ele. “Existem poucas, se houver, proteções na coleta ou uso de nossos dados biométricos para alimentar e treinar sistemas corporativos de IA.
“Não podemos confiar em uma abordagem maluca para a segurança digital, onde os problemas são tratados apenas quando constrangem o governo federal.”
Shoebridge disse que os US$ 10 bilhões em financiamento no orçamento do ano passado para o programa de defesa cibernética Redspice do Australian Signals Directorate devem incluir um investimento para garantir que ameaças como o uso indevido de IA possam ser identificadas e protegidas por todo o governo.
O Guardian Australia pediu comentários do vice-primeiro-ministro e ministro da Defesa, Richard Marles, responsável pelo ASD.
após a promoção do boletim informativo
Shoebridge disse que o governo também deve auditar as agências usando reconhecimento de voz para garantir que quaisquer outras falhas de segurança sejam identificadas e corrigidas.
“O principal objetivo do governo com o uso dessas tecnologias é reduzir os custos operacionais, em oposição ao que é melhor para os milhões de australianos que dependem de agências e serviços governamentais”, disse ele. “Essas economias do governo são quase sempre pagas pelos clientes do Centrelink.”
No ano financeiro de 2021-22, a Services Australia informou que usou biometria de voz para autenticar 56.000 chamadas a cada dia de trabalho e para autenticar mais de 39% de todas as chamadas para as principais linhas de negócios do Centrelink.
Entre agosto de 2021 e junho de 2022, foi utilizado em 11,4% de todas as ligações de pensão alimentícia, ou mais de 450 por dia útil.
.








