Ciência e Tecnologia

Deepfakes significam que as medidas de segurança biométrica não serão suficientes • Strong The One

.

Os ataques cibernéticos que utilizam deepfakes gerados por IA para contornar a segurança da biometria facial levarão um terço das organizações a duvidar da adequação das ferramentas de verificação e autenticação de identidade como proteções independentes.

Pelo menos é o que diz a consultoria e observadora de mercado Gartner, à medida que os deepfakes dominam as notícias desde que imagens virais sexualmente explícitas da popstar Taylor Swift, geradas por IA, levaram os fãs, a Microsoft e a Casa Branca a pedirem ação.

No entanto, a marcha incessante da tecnologia de IA também pode ser a causa de dores de cabeça para a segurança empresarial. A recuperação remota de contas, por exemplo, pode depender de uma imagem do rosto do indivíduo para desbloquear a segurança. Mas como estes podiam ser superados por imagens copiadas de redes sociais e outras fontes, os sistemas de segurança empregaram “detecção de vivacidade” para verificar se o pedido era do indivíduo certo.

Além de combinar a imagem de um indivíduo com aquela registrada, os sistemas que dependem da detecção de vivacidade também tentam testar se eles realmente estão lá por meio de uma solicitação “ativa”, como um movimento da cabeça ou uma detecção “passiva” de micromovimentos faciais e do foco. dos olhos.

No entanto, essas abordagens agora podem ser enganadas por deepfakes de IA e precisam ser complementadas por camadas adicionais de segurança, disse o vice-presidente analista do Gartner, Akif Khan. Strong The One.

Ele disse que a defesa contra a nova ameaça pode vir da complementação das medidas existentes ou da sua melhoria.

“Digamos, por exemplo, que o fornecedor saiba que um processo de verificação de IP mostra que o usuário está executando um iPhone 13 e entende a resolução da câmera do dispositivo, então se o [presented deepfake doesn’t match these parameters] isso pode sugerir que foi injetado digitalmente”, disse ele.

Outros exemplos de segurança suplementar podem incluir a observação da localização do dispositivo ou a frequência das solicitações do mesmo dispositivo, disse ele.

Os desenvolvedores de sistemas de segurança também estão tentando usar IA – normalmente redes neurais profundas – para inspecionar as imagens apresentadas em busca de sinais de que sejam deepfakes. “Um fornecedor me mostrou um exemplo de várias imagens deepfake que detectaram, e os rostos pareciam muito diferentes”, disse Khan.

“No entanto, quando você realmente ampliou, havia em cada uma das cabeças três ou quatro fios de cabelo, que estavam todos exatamente no mesmo tipo de configuração de três ou quatro fios de cabelo sobrepostos uns aos outros de uma forma que parecia estranhamente idêntica. são como três ou quatro pessoas diferentes. Isso foi como um artefato que eles usam para determinar que na verdade essas são imagens criadas sinteticamente.”

As organizações devem usar ambas as abordagens para se defenderem contra ameaças deepfake à segurança biométrica, disse ele.

“É a clássica segurança de defesa profunda. Eu não gostaria de dizer que uma abordagem fosse melhor do que qualquer outra, porque acho que a melhor abordagem seria usar todas as camadas disponíveis.” ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo