technology

Os hackers estão vendendo um serviço que contorna as restrições do ChatGPT sobre malware

.

Ilustração de um bot de bate-papo na tela do computador.

Getty Imagens | Carol Sim

Os hackers criaram uma maneira de contornar as restrições do ChatGPT e estão usando-o para vender serviços que permitem que as pessoas criem malware e e-mails de phishing, disseram pesquisadores na quarta-feira.

O ChatGPT é um chatbot que usa inteligência artificial para responder a perguntas e executar tarefas de maneira a imitar a produção humana. As pessoas podem usá-lo para criar documentos, escrever códigos básicos de computador e fazer outras coisas. O serviço bloqueia ativamente solicitações para gerar conteúdo potencialmente ilegal. Peça ao serviço para escrever um código para roubar dados de um dispositivo invadido ou criar um e-mail de phishing, e o serviço recusará e responderá que tal conteúdo é “ilegal, antiético e prejudicial”.

Abrindo a caixa de Pandora

Os hackers encontraram uma maneira simples de contornar essas restrições e estão usando-a para vender serviços ilícitos em um fórum de crime clandestino, relataram pesquisadores da empresa de segurança Check Point Research. A técnica funciona usando a interface de programação do aplicativo ChatGPT em vez da interface baseada na web. O ChatGPT disponibiliza a API aos desenvolvedores para que eles possam integrar o AI bot em seus aplicativos. Acontece que a versão da API não impõe restrições a conteúdo malicioso.

“A versão atual da API da OpenAI é usada por aplicativos externos (por exemplo, a integração do modelo GPT-3 da OpenAI aos canais do Telegram) e possui muito poucas ou nenhuma medida antiabuso em vigor”, escreveram os pesquisadores. “Como resultado, permite a criação de conteúdo malicioso, como e-mails de phishing e código de malware, sem as limitações ou barreiras que o ChatGPT definiu em sua interface de usuário.”

Um usuário em um fórum agora está vendendo um serviço que combina a API e o aplicativo de mensagens Telegram. As primeiras 20 consultas são gratuitas. A partir de então, os usuários são cobrados $ 5,50 para cada 100 consultas.

Um anúncio de um bot do Telegram que pode usar o ChatGPT para gerar conteúdo malicioso.
Prolongar / Um anúncio de um bot do Telegram que pode usar o ChatGPT para gerar conteúdo malicioso.

Pesquisa de ponto de verificação

Os pesquisadores da Check Point testaram o desvio para ver como funcionava. O resultado: um e-mail de phishing e um script que rouba documentos PDF de um computador infectado e os envia a um invasor por FTP.

Um phish gerado com o bot do Telegram.
Prolongar / Um phish gerado com o bot do Telegram.

Pesquisa de ponto de verificação

Malware gerado com o bot Telegram.
Prolongar / Malware gerado com o bot Telegram.

Outros participantes do fórum, por sua vez, estão postando gratuitamente códigos que geram conteúdo malicioso. “Aqui está um pequeno script bash para ajudá-lo a contornar as restrições do ChatGPT para usá-lo para o que quiser, incluindo o desenvolvimento de malware;)”, escreveu um usuário.

Um script bash para contornar as restrições do ChatGPT.
Prolongar / Um script bash para contornar as restrições do ChatGPT.

Pesquisa de ponto de verificação

No mês passado, os pesquisadores da Check Point documentaram como o ChatGPT poderia ser usado para escrever malware e mensagens de phishing.

“Durante dezembro – janeiro, ainda era fácil usar a interface do usuário da web do ChatGPT para gerar malware e e-mails de phishing (principalmente apenas a iteração básica era suficiente) e, com base na conversa dos cibercriminosos, presumimos que a maioria dos exemplos que mostramos foram criados usando a interface do usuário da web”, escreveu o pesquisador da Check Point, Sergey Shykevich, em um e-mail. “Ultimamente, parece que os mecanismos anti-abuso no ChatGPT foram significativamente melhorados, então agora os cibercriminosos mudaram para sua API, que tem muito menos restrições.”

Representantes da OpenAI, empresa com sede em São Francisco que desenvolve o ChatGPT, não responderam imediatamente a um e-mail perguntando se a empresa está ciente das descobertas da pesquisa ou se planeja modificar a interface da API. Esta postagem será atualizada se recebermos uma resposta.

A geração de e-mails de malware e phishing é apenas uma das maneiras pelas quais o ChatGPT está abrindo uma caixa de Pandora que pode bombardear o mundo com conteúdo nocivo. Outros exemplos de usos inseguros ou antiéticos são a invasão de privacidade e a geração de desinformação ou trabalhos escolares. Claro, a mesma capacidade de gerar conteúdo prejudicial, antiético ou ilícito pode ser usada pelos defensores para desenvolver maneiras de detectá-lo e bloqueá-lo, mas não está claro se os usos benignos serão capazes de acompanhar os maliciosos.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo