technology

Como o ChatGPT pode ser incitado a emitir código malicioso • Strong The One

.

Um funcionário do Forcepoint escreveu em um blog sobre como ele usou o ChatGPT para criar algum código que exfiltra dados de uma máquina infectada. A princípio, parece ruim, mas, na realidade, não é nada que um programador intermediário ou iniciante não consiga se recompor de qualquer maneira.

Seu experimento, até certo ponto, destaca como a sugestão de código não confiável chatbotdesenvolvido pela OpenAI e promovido pela Microsoft, pode ser usado para reduzir alguns custos no desenvolvimento de malware ou automatizar o processo.

Ele também mostra como alguém, potencialmente alguém sem nenhuma experiência em codificação, pode fazer o bot pular suas grades de proteção, que deveriam impedir que ele produza códigos potencialmente perigosos e fazer com que o serviço de IA crie um programa indesejável.

Aaron Mulgrew, da Forcepoint, que confessou ser um novato, imaginou que queria criar um programa, sem escrever nenhum código, que pudesse exfiltrar dados de uma máquina infectada.

Esse programa seria executado depois que alguém tivesse feito o trabalho duro de invadir uma rede por meio de uma vulnerabilidade, adivinhar ou obter as credenciais de login de uma vítima ou engenharia social.

Esse programa, ele decidiu, iria caçar um grande arquivo PNG no computador, usar esteganografia para esconder naquele PNG um documento sensível no sistema que o intruso desejava roubar – como uma planilha de clientes ou roteiro de produto – e então carregar o arquivo imagem repleta de dados para uma conta do Google Drive controlada por um invasor. O Google Drive foi escolhido porque a maioria das organizações permite conexões com o serviço de nuvem.

Como as proteções do chatbot o impedem de responder a qualquer prompt que inclua “malware”, mais ou menos, desenvolver essa ferramenta de exfiltração exigiu alguma criatividade com as instruções para o bot. Mulgrew precisou de apenas duas tentativas, dizem, para começar a contornar essas limitações.

Mulgrew diz que a produção da ferramenta levou “apenas algumas horas”. Sua descrição na terça-feira de sua experimentação pode ser encontrada aqui, embora (em nossa opinião) ignore as coisas sobre zero dias e como o bot poderia escrever um código que levaria dias de programadores normais para fazer. Não existe dia zero, e essas coisas podem ser reunidas em cerca de uma hora por um humano competente. Uma tarde, se você for novo em lidar com arquivos programaticamente.

Como ele não podia simplesmente pedir ao ChatGPT para escrever malware, Mulgrew pediu ao chatbot para escrever pequenos trechos de código Go que ele poderia costurar manualmente. Ele também tinha a IA chamando Biblioteca esteganográfica de Auyer para fazer o trabalho de ocultar arquivos de alto valor em um grande PNG de mais de 5 MB que o programa localizou no disco.

Para encontrar os documentos de alto valor para roubar, Mulgrew pediu à IA para escrever um código que itera nas pastas Documentos, Desktop e AppData do usuário em sua caixa do Windows e localiza qualquer arquivo PDF ou DOCX com tamanho máximo de 1 MB – isso garante que todo o documento pode ser incorporado em uma única imagem e, esperançosamente, contrabandeado sem disparar nenhum alarme.

“Combinar os trechos usando um prompt foi surpreendentemente a parte mais fácil, pois eu simplesmente precisava postar os trechos de código que consegui fazer com que o ChatGPT os gerasse e os combinasse”, escreveu ele.

No entanto, como a maioria dos documentos de alto valor que vale a pena roubar provavelmente será maior que 1 MB, Mulgrew pediu ao ChatGPT para escrever um código para dividir um PDF em pedaços de 100 KB e inserir cada pedaço em seu próprio PNG, que seria tudo exfiltrado no armazenamento em nuvem do invasor. . Isso levou “quatro ou cinco prompts”, observou ele.

Em seguida, Mulgrew queria garantir que seu executável final não fosse detectado pelo VirusTotal, que executa arquivos enviados por meio de vários verificadores de antivírus para ver se algum reconhece o binário como malicioso. Com alguns ajustes – como pedir ao ChatGPT para atrasar o horário de início do programa em dois minutos, o que engana algumas ferramentas AV – e outras massagens, como ofuscar o código, ele finalmente conseguiu obter o programa por meio do VirusTotal sem que nenhum alarme disparasse. desligado, ou assim nos disseram.

Isso é meio compreensível, pois o VirusTotal captura principalmente programas ruins já conhecidos por serem maliciosos. Malwares novos geralmente não iluminam o painel imediatamente. Alguns desses mecanismos de detecção empregam sandboxing para capturar atividades maliciosas em novas amostras, o que pode acionar alertas, mas eles podem ser evitados por aqueles com habilidade suficiente – um chatbot de IA não é necessário para isso.

E, novamente, o ChatGPT reconhece comandos como “ofuscar o código para evitar a detecção” como antiéticos e os bloqueia, portanto, os possíveis invasores teriam que ser criativos com seus prompts de entrada. ®

Nota do editor: Este artigo foi atualizado para incorporar comentários sobre as descobertas do Forcepoint.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo