technology

EUA alertam que deepfakes estão chegando para sua marca e contas bancárias • Strong The One

.

Deepfakes estão chegando para sua marca, contas bancárias e IP corporativo, de acordo com um alerta das autoridades policiais e das agências cibernéticas dos EUA.

Num relatório publicado na terça-feira, a NSA, o FBI e a Agência governamental de Segurança Cibernética e de Infraestrutura (CISA) alertaram que as ameaças de “mídia sintética” representam uma ameaça crescente.

Ou seja, espera-se que criminosos e espiões utilizem material gerado por IA para obter acesso aos sistemas, fazendo-se passar por funcionários ou enganando clientes. Pense: alguém usando ferramentas de aprendizado de máquina para fingir ser um CFO para transferir dinheiro de uma conta comercial, ou um CTO para fazer um funcionário de suporte de TI conceder privilégios de administrador a um intruso ou usuário desonesto, ou um CEO para dizer aos clientes para se desfazerem de seus produtos.

Os Feds observam que os alvos para este tipo de travessuras incluem especificamente militares, funcionários do governo, socorristas que utilizam os sistemas de segurança nacional, empresas de base industrial de defesa e proprietários e operadores de infra-estruturas críticas.

E “mídia sintética” é exatamente o que parece: informações e comunicações falsas que abrangem texto, vídeo, áudio e imagens.

À medida que a tecnologia melhora, fica cada vez mais difícil dizer ao negócio real da mídia deepfake que usa inteligência artificial e aprendizado de máquina para produzir mensagens e conteúdos altamente realistas e verossímeis.

“As ameaças mais substanciais do abuso da mídia sintética incluem técnicas que ameaçam a marca de uma organização, se fazem passar por líderes e diretores financeiros e usam comunicações fraudulentas para permitir o acesso às redes, comunicações e informações confidenciais de uma organização”, alertou o Tio Sam em um relatório sobre segurança cibernética. Folha de Informação [PDF].

Embora os Federais afirmem que há apenas “indicações limitadas” de que criminosos patrocinados pelo Estado estão a utilizar deepfakes, alertam que a crescente disponibilidade de ferramentas gratuitas de aprendizagem profunda torna mais fácil e barata a produção em massa de meios de comunicação falsos.

Até este ponto, as agências governamentais citam a lista dos principais riscos do Grupo Eurasia para 2023, que coloca a IA generativa no Nº 3 lugar. É uma leitura assustadora: “Os avanços tecnológicos resultantes da inteligência artificial (IA) irão minar a confiança social, capacitar demagogos e autoritários e perturbar negócios e mercados”.

As preocupações do governo dos EUA relativamente aos meios de comunicação sintéticos também incluem operações de desinformação destinadas a semear informações falsas sobre questões políticas, sociais, militares e económicas, causando agitação e incerteza.

Já vimos exemplos disso este ano, tanto na América como no exterior.

Em maio, um imagem falsa de uma explosão perto do Pentágono se tornou viral depois de ser compartilhado por várias contas verificadas do Twitter. Além de causando confusão gerala foto gerada por IA também provocou uma breve queda no mercado de ações.

Um mês depois, vários canais de televisão e estações de rádio russos foram comprometidos e transmitiram um vídeo falso profundo do presidente russo, Vladimir Putin, declarando a lei marcial. Claro, imagens falsas e postagens em mídias sociais também são favorecidos pelos capangas de Putin.

Os criminosos também utilizam cada vez mais meios de comunicação falsos na tentativa de fraudar organizações para obter ganhos financeiros, de acordo com o alerta. Como dissemos acima, estes normalmente implementam uma combinação de engenharia social juntamente com áudio, vídeo ou texto manipulado para enganar funcionários na transferência de fundos para contas bancárias controladas pelo invasor.

Cuidado com CEOs pedindo dinheiro

O FBI e amigos citam dois exemplos de maio: em um deles, os malfeitores usaram técnicas sintéticas de mídia visual e de áudio para se passarem pelo CEO da empresa, ligando para um gerente de linha de produtos pelo WhatsApp e alegando ser o CEO.

“A voz parecia a do CEO e a imagem e o plano de fundo usados ​​provavelmente correspondiam a uma imagem existente de vários anos antes e ao plano de fundo da casa pertencente ao CEO”, diz o relatório de ameaças deepfake.

Em outro exemplo, também de maio, os criminosos usaram uma combinação de mensagens falsas de áudio, vídeo e texto para se passar por um executivo da empresa, primeiro pelo WhatsApp e depois passando para uma reunião do Teams que parecia mostrar o executivo em seu escritório. “A conexão era muito ruim, então o ator recomendou mudar para texto e instou o alvo a transferir dinheiro para eles”, escreveram os federais. “O alvo ficou muito desconfiado e encerrou a comunicação neste momento.”

A Ficha de Informações sobre Segurança Cibernética também inclui diversas recomendações para detectar deepfakes e não ser vítima desses esquemas. As salvaguardas incluem o uso de tecnologias de detecção de deepfake e verificação em tempo real, além de tomar medidas preventivas, como fazer uma cópia da mídia e fazer hash do original e da cópia para verificar uma cópia real.

Como sempre, verifique a fonte e certifique-se de que a mensagem ou mídia vem de uma organização ou pessoa confiável – e real.

Também é uma boa ideia ter um plano para responder e minimizar possíveis danos causados ​​por deepfakes. Crie um plano de resposta a incidentes que detalhe como a segurança e outras equipes devem responder a uma variedade dessas técnicas e, em seguida, execute exercícios de mesa para ensaiar o plano. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo