Ciência e Tecnologia

A melhor ferramenta de dupla utilização para a segurança cibernética • st

.

Matéria Patrocinada Inteligência artificial: salvadora para defensores cibernéticos ou brinquedo novo e brilhante para ladrões online? Como a maioria das coisas em tecnologia, a resposta é um pouco dos dois.

A IA é o exemplo mais recente e poderoso de um tropo tecnológico comum: a ferramenta de uso duplo. Por décadas, ferramentas de crackers de senhas a Metasploit tiveram um lado claro e um lado escuro. Testadores de penetração as usaram para o bem, destacando buracos em sistemas que os administradores podem então corrigir. Mas criminosos cibernéticos – de script kiddies a intrusos de estados-nação – também usam as mesmas ferramentas para seus próprios fins nefastos.

Da mesma forma, a IA oferece aos defensores cibernéticos a chance de automatizar ainda mais a detecção de ameaças, acelerar a resposta a incidentes e, em geral, dificultar a vida dos invasores. Mas esses mesmos black hats estão muito felizes em aumentar os ataques de várias maneiras com a ajuda da IA.

O aumento dos ataques cibernéticos aprimorados por IA

A IA é um canivete suíço para o criminoso cibernético moderno, especialmente com a chegada da IA ​​generativa (GenAI) alimentada por tecnologias como modelos de linguagem grande (LLMs) e redes adversárias generativas. Os CISOs estão legitimamente preocupados com essa tecnologia relativamente nova. O relatório Voice of the CISO de 2024 da Proofpoint descobriu que 54% dos CISOs globalmente estão preocupados com os riscos de segurança representados pelos LLMs, e com razão. A GenAI abre muitas novas possibilidades para os criminosos cibernéticos criarem conteúdo malicioso mais preciso e direcionado.

Estão surgindo novas ferramentas que podem criar e-mails fraudulentos indistinguíveis dos legítimos. Essas ferramentas, como o WormGPT, não seguem nenhuma das diretrizes éticas codificadas em LLMs fundamentais como o ChatGPT e o Claude. Em vez disso, elas produzem e-mails convincentes que podem ser a base para um ataque de comprometimento de e-mail comercial (BEC).

“No final das contas, essas ferramentas estão permitindo que os invasores criem e-mails de phishing melhores e mais convincentes, traduzindo-os para cada vez mais idiomas e visando mais vítimas em potencial no mundo todo”, alerta Adenike Cosgrove, vice-presidente de estratégia de segurança cibernética da fornecedora de segurança cibernética Proofpoint.

Esses e-mails de phishing automatizados estão ficando cada vez melhores (se você for um criminoso cibernético) ou piores (se você for um defensor encarregado de identificá-los e bloqueá-los). Textos maliciosos produzidos usando LLMs são tão eficazes que, em um teste da Agência de Tecnologia do Governo de Cingapura, mais usuários clicaram em links em e-mails de phishing gerados por IA do que em links em e-mails escritos manualmente. E isso foi em 2021.

Embora os criminosos não estejam migrando totalmente para a IA para suas campanhas online maliciosas, a tecnologia está ajudando a refinar suas campanhas de phishing, permitindo que eles se concentrem na qualidade e na quantidade ao mesmo tempo. O relatório State of the Phish de 2024 da Proofpoint descobriu que 71% das organizações experimentaram pelo menos um ataque de phishing bem-sucedido em 2023.

Esse número caiu de 84% em 2022, mas as consequências negativas associadas a esses ataques aumentaram, resultando em: um aumento de 144% nos relatos de penalidades financeiras, como multas regulatórias, e um aumento de 50% nos relatos de danos à reputação.

O GenAI tira o trabalho de escrever mensagens hiperpersonalizadas que parecem vir do seu chefe. Isso é especialmente útil para golpistas de BEC que desviam grandes quantias de dinheiro de vítimas institucionais se passando por clientes ou executivos seniores. Isso promete agravar um problema já crescente; em 2023, a Proofpoint detectou e bloqueou uma média de 66 milhões de ataques de BEC por mês.

Isso vai além da simples criação de texto para elaborar e-mails de phishing ultraconvincentes. O GenAI também é a base para os tipos de áudio e vídeo deepfake que já estão alimentando BECs de próximo nível. Cinco anos atrás, golpistas usaram a tecnologia deepfake de áudio para se passar por um executivo sênior de uma empresa de energia do Reino Unido, resultando no roubo de € 220.000. Houve muitos outros ataques desse tipo desde então, com perdas financeiras ainda maiores.

Criminosos também usaram IA para criar imitações de vídeo, permitindo que eles enganassem alvos em videochamadas. No início de 2024, duas empresas do Reino Unido foram enganadas em HK$ 4,2 milhões no total depois que golpistas usaram deepfakes de vídeo para se passarem por seus diretores financeiros durante chamadas do Zoom, por exemplo. Esses ataques são tão potencialmente prejudiciais que a NSA, o FBI e o CISA do Departamento de Segurança Interna alertaram conjuntamente sobre eles no ano passado.

Combater o fogo com fogo (artificial)

Nem tudo é desgraça e tristeza. Como uma tecnologia de uso duplo, a IA pode ser usada para o bem, capacitando os defensores com capacidades avançadas de detecção e resposta a ameaças. A tecnologia se destaca em fazer o que apenas humanos podiam fazer antes, mas em escala. Como a IA permite que os cibercriminosos lancem ataques em maior volume, as soluções de segurança com tecnologia de IA integrada se tornarão um meio crítico de defesa para equipes de segurança que não conseguirão aumentar o número de funcionários o suficiente para surfar nessa maré digital.

“Para equipes menores que estão defendendo grandes organizações globais, humanos sozinhos não podem mais escalar para proteger suficientemente essas superfícies de ataque de nível empresarial que estão sempre se expandindo”, diz Cosgrove. “É aqui que a IA e o aprendizado de máquina começam a entrar, alavancando esses novos controles que complementam estratégias robustas de segurança cibernética.”

Fornecedores como a Proofpoint estão fazendo exatamente isso. Ela está integrando IA em suas soluções de segurança centradas no ser humano para impedir que informações inapropriadas saiam das redes de seus clientes. O Adaptive Email DLP usa IA para detectar e bloquear e-mails mal direcionados e exfiltração de dados confidenciais em tempo real. É como ter um estagiário muito rápido com atenção aos detalhes verificando cada e-mail antes de ele ser enviado.

A empresa também usa IA para impedir que toxinas digitais cheguem aos seus clientes por e-mail. Algoritmos de IA em seu serviço Proofpoint Targeted Attack Protection (TAP) detectam e analisam ameaças antes que elas cheguem às caixas de entrada dos usuários. Isso funciona com o Proofpoint Threat Response Auto-Pull (TRAP), outro serviço que usa IA para analisar e-mails após a entrega e colocar em quarentena qualquer um que se revele malicioso.

Soluções de IA e ML tendem a exigir modelos de detecção poderosos e um pipeline de dados de alta fidelidade para produzir taxas de detecção precisas, eficiências operacionais e proteção automatizada. Cosgrove diz que a Proofpoint analisa mais interações humanas do que qualquer outra empresa de segurança cibernética, dando uma visão incomparável das táticas, técnicas e procedimentos que os agentes de ameaças usam para atacar pessoas e comprometer organizações.

“Os dados com os quais estamos treinando nossos modelos de aprendizado de máquina de IA são baseados na telemetria das 230.000 empresas e pequenos negócios globais que protegemos”, ela diz, apontando que essa telemetria vem das atividades de milhares de indivíduos nesses sites de clientes. “Estamos treinando esses modelos com 2,6 bilhões de e-mails, 49 bilhões de URLs, 1,9 bilhão de anexos todos os dias.”

Impedir que os humanos façam o que os humanos fazem

Como as empresas são atingidas em ataques de phishing em primeiro lugar? Simples: os humanos continuam sendo o elo mais fraco. Mesmo depois de inúmeras sessões de conscientização implacável sobre segurança cibernética, alguém ainda clica em anexos que não deveria e usa o nome do seu cachorro para todas as suas senhas.

Na realidade, o culpado não é apenas uma pessoa. De acordo com o relatório State of the Phish de 2024 da Proofpoint, 71% dos usuários admitiram tomar ações arriscadas, e 96% deles sabiam que estavam fazendo isso. É por isso que impressionantes 63% dos CISOs consideram os usuários com acesso a dados críticos como seu maior risco de segurança cibernética, de acordo com o relatório Voice of the CISO de 2024 da empresa. Para citar Sartre, o inferno são as outras pessoas que não seguem a política corporativa de segurança cibernética.

A IA da Proofpoint vai além da simples varredura de assinaturas para peneirar padrões dos metadados e conteúdo associados ao e-mail do usuário. Isso permite que ela crie uma imagem do comportamento humano.

“A razão pela qual desenvolvemos um mecanismo de IA comportamental e por que é essencial integrá-lo aos seus controles de segurança de e-mail é que ele analisa padrões de comunicação”, diz Cosgrove. Isso é especialmente crítico quando há poucos outros sinais técnicos para prosseguir. “Muitas vezes, o que vemos em fraudes de e-mail ou ataques de comprometimento de e-mail comercial é que é um e-mail simples com apenas texto. Não há anexo, não há carga útil, não há link ou URL para sandbox.”

Ferramentas de IA como a Proofpoint tomam decisões diferenciadas com base em sinais sutis que somente humanos poderiam ter feito anteriormente, e estão fazendo isso em escala. À medida que imitam os pontos fortes humanos em áreas como julgamento, também estão se tornando nossa melhor chance de reforçar as fraquezas que nos colocam em problemas digitais; distração, impaciência e falta de atenção aos detalhes.

A chave para permanecer à frente na luta contra os invasores cibernéticos será usar ferramentas como essas para criar outra camada de defesa contra invasores digitais que cada vez mais as incluirão em seus próprios arsenais. Outras camadas incluem higiene cibernética eficaz em áreas que vão desde gerenciamento de mudanças até monitoramento de endpoint, backups de dados eficazes e treinamento de conscientização sobre segurança cibernética mais envolvente para tentar minimizar a probabilidade de erro do usuário em primeiro lugar.

A segurança cibernética sempre foi um jogo de gato e rato entre atacantes e defensores, e a IA é a mais recente evolução nessa luta. Os defensores devem desenvolver e implementar ferramentas que mantenham as empresas modernas um passo à frente na corrida armamentista da IA ​​- porque se não o fizermos, nossos adversários ganharão uma vantagem potencialmente devastadora.

Patrocinado pela Proofpoint.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo