technology

O ChatGPT pode gravar um dia zero? Este pesquisador diz que sim • Strong The One

.

Um pesquisador de segurança do Forcepoint diz que usou o ChatGPT para desenvolver uma exploração de dia zero que ignorava as detecções quando carregada no VirusTotal.

Isso significa que esses ataques sofisticados e geralmente muito caros, principalmente a posse de estados-nação e grupos APT, agora são muito mais acessíveis a qualquer possível cibercriminoso com acesso à IA – se eles puderem manipular o mecanismo para fazer o que é necessário .

Para este exercício de desenvolvimento de malware, Aaron Mulgrew da Forcepoint, que se autodenomina um “novato”, não escreveu nenhum código, mas usou técnicas avançadas, incluindo esteganografia, que incorpora arquivos no código de outro arquivo, geralmente uma imagem. Isso permite que os criminosos ignorem as ferramentas de defesa e roubem dados confidenciais.

Como as proteções do chatbot impedem que ele responda a qualquer solicitação que inclua “malware”, o desenvolvimento de uma nova exploração exige alguma criatividade, e Mulgrew precisou de apenas duas tentativas para escapar completamente da detecção. Mulgrew diz que produzir o ataque levou “apenas algumas horas”.

“O tempo equivalente gasto sem um Chatbot baseado em IA, eu estimaria, poderia levar algumas semanas para uma equipe de 5 a 10 desenvolvedores de malware, especialmente para evitar todos os fornecedores baseados em detecção”, ele escreveu.

Os alvos do zero-day teórico seriam usuários corporativos de alto valor com documentos de alto valor na unidade C para exfiltração.

Como ele não podia simplesmente pedir ao ChatGPT para escrever malware, Mulgrew pediu ao chatbot para escrever pequenos trechos que ele poderia unir manualmente e usou a esteganografia para exfiltração. Para isso, seu primeiro prompt foi solicitar à IA que gerasse um código que procurasse um PNG maior que 5 MB no disco local.

“A decisão de design aqui foi que um PNG de 5 MB seria facilmente grande o suficiente para armazenar um fragmento de um documento comercial de alto valor, como um PDF ou DOCX”, escreveu Mulgrew.

Em seguida, ele pediu ao ChatGPT para codificar o arquivo PNG com esteganografia. Isso funcionou também, com a IA chamando Biblioteca esteganográfica de Auyer para fazer o trabalho.

Para encontrar os documentos de alto valor para roubar, Mulgrew pediu à IA que escrevesse um código que fosse iterado nas pastas Documentos, Desktop e AppData do usuário e localizasse quaisquer documentos PDF ou DOCX com um tamanho máximo de 1 MB – isso garante que todo o documento podem ser incorporados em uma única imagem e, esperançosamente, contrabandeados sem disparar nenhum alarme.

Além disso, Mulgrew diz que decidiu usar o Google Drive para exfiltração porque o Google geralmente é “listado como permitido” em redes corporativas.

“Combinar os trechos usando um prompt foi surpreendentemente a parte mais fácil, pois eu simplesmente precisava postar os trechos de código que consegui fazer com que o ChatGPT os gerasse e os combinasse”, escreveu ele.

No entanto, como a maioria dos documentos de alto valor com roubo provavelmente será maior que 1 MB, Mulgrew pediu ao ChatGPT para escrever um código para dividir um PDF em pedaços de 100 KB e gerar as imagens falsas de acordo. Isso levou “quatro ou cinco prompts”, observou ele.

Na primeira vez que Mulgrew carregou o malware gerado por IA para o VirusTotal, cinco fornecedores sinalizaram o código como malicioso. No interesse de contornar todas as ferramentas de segurança e criar um verdadeiro dia zero, Mulgrew teve que fazer mais alguns ajustes.

Primeiro, ele pediu ao ChatGPT para criar sua própria função de esteganografia LSB em vez de chamar a biblioteca externa do Auyer. “Isso reduziu o número de detecções para dois fornecedores, mas não exatamente o número de ouro de zero fornecedores marcando o arquivo como malicioso”, disse Mulgrew.

Os dois fornecedores restantes incluíam uma “caixa de proteção líder” e outra que realiza análise estática em executáveis. Para contornar o primeiro, ele pediu ao ChatGPT para atrasar o início em dois minutos – alguns sandboxes têm um tempo limite embutido. E para o segundo, ele pediu ao chatbot para alterar todas as variáveis ​​para nomes e sobrenomes aleatórios em inglês, o que efetivamente ofusca o código.

Mais uma vez, o ChatGPT reconhece comandos como “ofuscar o código para evitar a detecção” como ilegais e antiéticos, portanto, os possíveis invasores precisam ser criativos com este.

Depois de fazer essas alterações, Mulgrew mais uma vez carregou o malware no VirusTotal e obteve o resultado do círculo verde: nenhum fornecedor sinalizou o arquivo como malicioso. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo