.

Era apenas uma questão de tempo até que o chatbot AI fosse emulado para fins maliciosos – e uma dessas ferramentas está agora no mercado, conhecida como WormGPT. Captura de tela do Strong The One via Twitter
Quando o ChatGPT foi disponibilizado ao público em 30 de novembro de 2002, o chatbot de IA conquistou o mundo.
O software foi desenvolvido pela OpenAI, uma empresa de IA e pesquisa. O ChatGPT é uma ferramenta de processamento de linguagem natural capaz de responder a consultas e fornecer informações com base em conjuntos de dados coletados de conjuntos de dados, incluindo livros e páginas da Web on-line, e desde então se tornou uma ferramenta valiosa para tarefas de coleta, análise e escrita de informações em tempo real para milhões de usuários em todo o mundo.
Também: O que é ChatGPT e por que isso importa? Aqui está o que você precisa saber
Enquanto alguns especialistas acreditam que a tecnologia pode atingir um nível de interrupção na Internet, outros observam que o ChatGPT demonstra ‘imprecisão confiante’. Alunos em massa foram pegos plagiando cursos por meio da ferramenta e, a menos que os conjuntos de dados sejam verificados, ferramentas como o ChatGPT podem se tornar ferramentas involuntárias para espalhar desinformação e propaganda.
De fato, a Federal Trade Commission (FTC) dos EUA está investigando a Open AI sobre o manuseio de informações pessoais e os dados usados para criar seu modelo de linguagem.
Além das preocupações com a proteção de dados, no entanto, sempre que uma nova inovação tecnológica é feita, também existem caminhos para abuso. Era apenas uma questão de tempo até que o chatbot AI fosse emulado para fins maliciosos – e uma dessas ferramentas está agora no mercado, conhecida como WormGPT.
Em 13 de julho, pesquisadores da empresa de segurança cibernética SlashNext publicaram uma postagem no blog revelando a descoberta do WormGPT, uma ferramenta que está sendo promovida para venda em um fórum de hackers.
De acordo com o usuário do fórum, o projeto WormGPT pretende ser uma “alternativa” blackhat ao ChatGPT, “uma que permite fazer todo tipo de coisas ilegais e vendê-las facilmente online no futuro”.
Também: Os golpistas estão usando IA para se passar por seus entes queridos. Aqui está o que observar
O SlashNext obteve acesso à ferramenta, descrita como um módulo AI baseado no modelo de linguagem GPTJ. O WormGPT supostamente foi treinado com fontes de dados, incluindo informações relacionadas a malware – mas os conjuntos de dados específicos permanecem conhecidos apenas pelo autor do WormGPT.
Pode ser possível para o WormGPT gerar código malicioso, por exemplo, ou e-mails de phishing convincentes.
O WormGTP é descrito como “semelhante ao ChatGPT, mas não tem limites ou limites éticos”.
O ChatGPT possui um conjunto de regras para tentar impedir que os usuários abusem do chatbot de forma antiética. Isso inclui recusar-se a concluir tarefas relacionadas à criminalidade e malware. No entanto, os usuários estão constantemente encontrando maneiras de contornar essas limitações.
Os pesquisadores conseguiram usar o WormGPT para “gerar um e-mail destinado a pressionar um gerente de conta desavisado a pagar uma fatura fraudulenta”. A equipe ficou surpresa com o desempenho do modelo de linguagem na tarefa, classificando o resultado como “notavelmente persuasivo”. [and] também estrategicamente astuto.”
Também: O Gmail ajudará você a escrever seus e-mails agora: como acessar a nova ferramenta de IA do Google
Embora eles não tenham dito se tentaram o serviço de criação de malware, é plausível que o bot AI pudesse – dado que as limitações do ChatGPT não existem.
De acordo com um canal do Telegram supostamente lançado para promover a ferramenta, postagens visualizadas pelo Strong The One indicam que o desenvolvedor está criando um modelo de assinatura para acesso, que varia de US$ 60 a US$ 700. Um membro do canal, “darkstux”, alega que já existem mais de 1.500 usuários do WormGPT.
Não. O ChatGPT foi desenvolvido pela OpenAI, uma organização legítima e respeitada. O WormGMT não é criação deles e é um exemplo de como os cibercriminosos podem se inspirar em chatbots avançados de IA para desenvolver suas próprias ferramentas maliciosas.
Mesmo nas mãos de novatos e de golpistas típicos, os modelos de linguagem natural podem transformar golpes de phishing e BEC básicos e facilmente evitados em operações sofisticadas com maior probabilidade de sucesso. Não há dúvida de que, onde o dinheiro for ganho, os cibercriminosos seguirão a liderança – e o WormGPT é apenas o começo de uma nova gama de ferramentas de cibercriminosos definidas para serem negociadas em mercados clandestinos.
Também: 6 habilidades necessárias para se tornar um engenheiro de prompt de IA
Também é improvável que o WormGPT seja o único por aí.
- Europol: A Europol disse no relatório de 2023, “O impacto de grandes modelos de linguagem na aplicação da lei”, que “será crucial monitorar […] desenvolvimento, já que LLMs escuros (grandes modelos de linguagem) treinados para facilitar a saída prejudicial podem se tornar um modelo de negócios criminosos chave do futuro. Isso representa um novo desafio para a aplicação da lei, pelo qual será mais fácil do que nunca para atores mal-intencionados perpetrar atividades criminosas sem o conhecimento prévio necessário”.
- Federal Trade Commission: A FTC está investigando a OpenAI, fabricante do ChatGPT, sobre políticas de uso de dados e imprecisão.
- Agência Nacional do Crime do Reino Unido (NCA): A NCA adverte que a IA pode levar a uma explosão de risco para jovens e abuso.
- Escritório da Comissão de Informações do Reino Unido (ICO): O ICO lembrou às organizações que suas ferramentas de IA ainda estão sujeitas às leis de proteção de dados existentes.
Não sem táticas secretas, mas com as instruções certas, muitos modelos de linguagem natural podem ser persuadidos a realizar ações e tarefas específicas.
O ChatGPT, por exemplo, pode redigir e-mails profissionais, cartas de apresentação, currículos, ordens de compra e muito mais. Isso por si só pode remover alguns dos indicadores mais comuns de um e-mail de phishing: erros de ortografia, problemas de gramática e problemas de idioma secundário. Por si só, isso pode causar dor de cabeça para as empresas que tentam detectar e treinar sua equipe para reconhecer mensagens suspeitas.
Os pesquisadores do SlashNext dizem que “os cibercriminosos podem usar essa tecnologia para automatizar a criação de e-mails falsos altamente convincentes, personalizados para o destinatário, aumentando assim as chances de sucesso do ataque”.
Também: 7 dicas avançadas de redação de prompts do ChatGPT que você precisa saber
Para obter instruções passo a passo sobre como usar o ChatGPT para fins legítimos, confira o guia do Strong The One sobre como começar a usar o ChatGPT.
O uso do ChatGPT é gratuito. A ferramenta pode ser usada para responder a perguntas gerais, escrever conteúdo e código ou gerar prompts para tudo, desde histórias criativas até projetos de marketing.
Existe uma opção de assinatura, ChatGPT Plus, no qual os usuários podem se inscrever. A assinatura custa $ 20 por mês e fornece aos usuários acesso ao ChatGPT durante os horários de pico e outros, tempos de resposta mais rápidos e acesso prioritário a melhorias e correções.
Também: Como acessar, instalar e usar plugins AI ChatGPT-4 (e por que você deveria)
.








