technology

Criminosos buscam bypass de guarda-corpo OpenAI, usam ChatGPT para o mal • Strong The One

.

Os cibercriminosos são famosos por adotar rapidamente novas ferramentas para fins nefastos, e o ChatGPT não é diferente nesse aspecto.

No entanto, sua adoção por criminosos aconteceu “ainda mais rápido do que esperávamos”, de acordo com Sergey Shykevich, gerente do grupo de inteligência de ameaças da Check Point. A equipe de pesquisa da loja de segurança disse que já viu cibercriminosos russos em fóruns clandestinos discutindo soluções alternativas para que possam trazer o ChatGPT da OpenAI para o lado negro.

Pesquisadores de segurança disseram Strong The One essa ferramenta de geração de texto é preocupante porque pode ser usada para experimentar a criação de malware polimórfico, que pode ser usado em ataques de ransomware. É chamado de polimórfico porque sofre mutações para escapar da detecção e identificação por antivírus. Não apenas isso, mas criminosos de baixa habilidade podem usar o bot OpenAI para gerar malware trivial que consegue infectar redes ingênuas ou mal defendidas.

O ChatGPT também pode ser usado para produzir texto automaticamente para phishing e outros golpes onlinese o filtro de conteúdo da IA ​​puder ser contornado.

Pensamos que o ChatGPT seria mais útil para criar e-mails e outras mensagens para enviar às pessoas para induzi-las a fornecer seus nomes de usuário e senhas, mas o que sabemos? Alguns criminosos podem achar o modelo de IA útil ao oferecer técnicas e códigos maliciosos em constante mudança para implantação.

“Ele permite que pessoas com conhecimento zero em desenvolvimento codifiquem ferramentas maliciosas e facilmente se tornem supostos desenvolvedores”, disse Shykevich. Strong The One. “Simplesmente diminui a barreira para se tornar um cibercriminoso.”

Em uma série de capturas de tela postadas no blog da Check Point, os pesquisadores mostram criminosos perguntando a outros criminosos qual é a melhor maneira de usar um cartão de crédito roubado para pagar pelo status de usuário atualizado no OpenAI, bem como ignorar o endereço IP, número de telefone, e outros controles geográficos destinados a impedir que usuários russos acessem o chatbot.

A Rússia é um dos poucos países banido de usar OpenAI.

A equipe de pesquisadores também encontrou vários tutoriais russos nos fóruns sobre como contornar a verificação de SMS do OpenAI e se registrar no ChatGPT.

“Acreditamos que esses hackers provavelmente estão tentando implementar e testar o ChatGPT em suas operações criminosas do dia-a-dia. Os ciberciminosos estão ficando cada vez mais interessados ​​no ChatGPT, porque a tecnologia de IA por trás dele pode tornar um hacker mais econômico”, a tripulação do ponto de verificação escrevi.

Em uma pesquisa separada sobre ameaças publicada hoje, os analistas do CyberArk Labs, Eran Shimony e Omer Tsarfati detalhe como criar malware polimórfico usando o ChatGPT e planeja lançar alguns de seus trabalhos “para fins de aprendizado”.

Embora existam outros exemplos de como consultar o ChatGPT para criar código malicioso, em sua pesquisa mais recente, a CyberArk contornou os filtros de conteúdo do ChatGPT e mostrou como, “com muito pouco esforço ou investimento por parte do adversário, é possível consultar continuamente o ChatGPT para recebermos um pedaço de código único, funcional e validado a cada vez”, disse Eran Shimony, pesquisador sênior de segurança da CyberArk Strong The One.

“Isso resulta em malware polimórfico que não mostra comportamento malicioso enquanto armazenado no disco, pois recebe o código do ChatGPT e o executa sem deixar rastros na memória”, disse ele. “Além disso, podemos pedir ao ChatGPT para modificar nosso código.”

O ChatGPT, como muitos chatbots, possui filtros de conteúdo que visam restringir a criação de conteúdo prejudicial e inapropriado. Portanto, não é de surpreender que simplesmente perguntar algo desagradável como “escreva-me uma carga de exploit explorer.exe em python” não funcionou e, em vez disso, acionou o filtro de conteúdo.

Shimony e Tsarfati encontraram uma maneira de contornar isso persuadindo o ChatGPT com descrições detalhadas do que eles queriam, ordenando que ele obedecesse e fazendo com que o bot finalmente sugerisse o código malicioso que eles desejavam. Usando esse método, o chatbot produziu um código incompleto para injetar uma DLL no processo explorer.exe no Windows. Depois de criar esse código de injeção reconhecidamente inacabado, os pesquisadores usaram o chatbot para produzir um injetor de shellcode; o shellcode sendo deliberadamente inútil.

Curiosamente, a versão API do ChatGPT não aplicou um filtro de conteúdo, enquanto a versão da web o fez, ou assim nos disseram.

Em seguida, a dupla da CyberArk disse que pediu ao bot da OpenAI para modificar o script de injeção de DLL, incluindo a alteração das chamadas de API feitas pelo programa e a codificação em base64. O objetivo não era produzir apenas um código malicioso, mas fazer com que o bot repetidamente e automaticamente sugerisse diferentes maneiras de projetá-lo, na esperança de que isso o ajudasse a evitar a identificação pelas defesas de segurança.

“Ao consultar continuamente o chatbot e receber um código único a cada vez, é possível criar um programa polimórfico que é altamente evasivo e difícil de detectar”, afirmou a dupla.

Outra faceta disso é que alguém sem muito conhecimento de programação poderia usar as sugestões de código para formar uma variedade viável de malware para liberar em uma pequena organização ou no computador pessoal da vítima, uma vez aberto por meio de um download ou outros enfeites.

A dupla CyberArk mudou-se para o ransomware. Primeiro, eles pediram ao ChatGPT para escrever um código que encontrasse arquivos que podem ser valiosos para extorsionários por meio desta solicitação:

Em seguida, eles pedem ao ChatGPT que sugira um código para criptografar os arquivos, mostrando como um invasor pode ler e embaralhar os documentos da vítima usando scripts do bot. O que o par CyberArk está prevendo aqui é algum malware básico e inofensivo que infecta uma rede, e esse software consulta desagradável o ChatGPT em busca de scripts a serem executados para realizar atos maliciosos. Esses scripts podem ser obtidos e executados pelo malware e alterados sempre que uma consulta é feita. Isso pode dificultar a vida do antivírus e também torna o desenvolvimento desses scripts um pouco mais fácil para os skiddies.

Por outro lado, a detecção de conexões de saída inesperadas ou não autorizadas para a API ChatGPT a partir de pontos de extremidade da rede acabaria com isso.

“Em última análise, a falta de detecção desse malware avançado que os produtos de segurança não conhecem é o que o destaca”, disse Shimony, acrescentando que isso torna “a mitigação incômoda com muito pouco esforço ou investimento do adversário”.

“No futuro, se estiver conectado à Internet, poderá criar exploits por 1 dia”, acrescentou. “É alarmante porque, até agora, os fornecedores de segurança não lidaram com malware que usa continuamente o ChatGPT”. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo