.

Getty Images
Desde seu lançamento beta em novembro, o AI chatbot ChatGPT tem sido usado para uma ampla gama de tarefas, incluindo escrever poesia, artigos técnicos, romances e ensaios, planejar festas e aprender sobre novos tópicos. Agora podemos adicionar o desenvolvimento de malware e a busca de outros tipos de crimes cibernéticos à lista.
Pesquisadores da empresa de segurança Check Point Research relataram na sexta-feira que, poucas semanas após o lançamento do ChatGPT, os participantes de fóruns de crimes cibernéticos – alguns com pouca ou nenhuma experiência em codificação – o estavam usando para escrever software e e-mails que poderiam ser usados para espionagem, ransomware, ataques maliciosos spam e outras tarefas maliciosas.
“Ainda é muito cedo para decidir se os recursos do ChatGPT se tornarão ou não a nova ferramenta favorita dos participantes da Dark Web”, escreveram os pesquisadores da empresa. “No entanto, a comunidade cibercriminosa já demonstrou interesse significativo e está entrando nessa última tendência de gerar código malicioso.”
No mês passado, um participante do fórum postou o que alegou ser o primeiro script que havia escrito e creditou ao chatbot de IA por fornecer um “bom [helping] mão para terminar o roteiro com um bom escopo.”

Pesquisa de ponto de verificação
O código Python combinou várias funções criptográficas, incluindo assinatura de código, criptografia e descriptografia. Uma parte do script gerou uma chave usando criptografia de curva elíptica e a curva ed25519 para assinatura de arquivos. Outra parte usou uma senha codificada para criptografar arquivos do sistema usando os algoritmos Blowfish e Twofish. Um terceiro usou chaves RSA e assinaturas digitais, assinatura de mensagens e a função hash blake2 para comparar vários arquivos.
O resultado foi um script que pode ser usado para (1) descriptografar um único arquivo e anexar um código de autenticação de mensagem (MAC) ao final do arquivo e (2) criptografar um caminho codificado e descriptografar uma lista de arquivos recebidos como um argumento. Nada mal para alguém com habilidade técnica limitada.
“Todo o código mencionado acima pode, é claro, ser usado de maneira benigna”, escreveram os pesquisadores. “No entanto, esse script pode ser facilmente modificado para criptografar completamente a máquina de alguém sem qualquer interação do usuário. Por exemplo, pode potencialmente transformar o código em ransomware se os problemas de script e sintaxe forem corrigidos.”
Em outro caso, um participante do fórum com formação mais técnica postou dois exemplos de código, ambos escritos usando o ChatGPT. O primeiro foi um script Python para roubo de informações pós-exploração. Ele procurou por tipos de arquivos específicos, como PDFs, copiou-os para um diretório temporário, comprimiu-os e os enviou para um servidor controlado por invasores.

Pesquisa de ponto de verificação
O indivíduo postou um segundo trecho de código escrito em Java. Ele baixou sub-repticiamente o cliente SSH e telnet PuTTY e o executou usando o Powershell. “No geral, esse indivíduo parece ser um agente de ameaças orientado para a tecnologia, e o objetivo de suas postagens é mostrar aos cibercriminosos menos capazes tecnicamente como utilizar o ChatGPT para fins maliciosos, com exemplos reais que eles podem usar imediatamente.”

Pesquisa de ponto de verificação
Outro exemplo de crimeware produzido pelo ChatGPT foi projetado para criar um bazar on-line automatizado para comprar ou trocar credenciais para contas comprometidas, dados de cartão de pagamento, malware e outros bens ou serviços ilícitos. O código usou uma interface de programação de terceiros para recuperar os preços atuais das criptomoedas, incluindo monero, bitcoin e etherium. Isso ajudou o usuário a definir os preços ao realizar as compras.

Pesquisa de ponto de verificação
A postagem de sexta-feira vem dois meses depois que os pesquisadores da Check Point tentaram desenvolver malware produzido por IA com fluxo total de infecção. Sem escrever uma única linha de código, eles geraram um e-mail de phishing razoavelmente convincente:

Pesquisa de ponto de verificação
Os pesquisadores usaram o ChatGPT para desenvolver uma macro maliciosa que pode ser escondida em um arquivo do Excel anexado ao e-mail. Mais uma vez, eles não escreveram uma única linha de código. A princípio, o script gerado era bastante primitivo:

Captura de tela do ChatGPT produzindo uma primeira iteração de um script VBA.
Pesquisa de ponto de verificação
Quando os pesquisadores instruíram o ChatGPT a repetir o código várias vezes, a qualidade do código melhorou bastante:

Pesquisa de ponto de verificação
Os pesquisadores então usaram um serviço de IA mais avançado chamado Codex para desenvolver outros tipos de malware, incluindo um shell reverso e scripts para varredura de portas, detecção de sandbox e compilação de seu código Python para um executável do Windows.
“E assim, o fluxo de infecção está completo”, escreveram os pesquisadores. “Criamos um e-mail de phishing, com um documento do Excel anexado que contém código VBA malicioso que baixa um shell reverso para a máquina de destino. O trabalho duro foi feito pelas IAs, e tudo o que nos resta fazer é executar o ataque.”
Embora os termos do ChatGPT impeçam seu uso para fins ilegais ou maliciosos, os pesquisadores não tiveram problemas para ajustar suas solicitações para contornar essas restrições. E, é claro, o ChatGPT também pode ser usado por defensores para escrever códigos que procuram URLs maliciosos dentro de arquivos ou consultar o VirusTotal para obter o número de detecções de um hash criptográfico específico.
Bem-vindo ao admirável mundo novo da IA. É muito cedo para saber com precisão como isso moldará o futuro do hacking ofensivo e da remediação defensiva, mas é uma aposta justa que isso apenas intensificará a corrida armamentista entre defensores e agentes de ameaças.
.