Ciência e Tecnologia

Como o ChatGPT – e bots semelhantes – podem espalhar malware

.

O cenário da IA começou a se mover muito, muito rápido: ferramentas voltadas para o consumidor, como Midjourney e ChatGPT, agora são capazes de produzir resultados incríveis de imagem e texto em segundos com base em prompts de linguagem natural, e estamos vendo-os sendo implantados em todos os lugares, desde pesquisas na Web até crianças livros.

No entanto, esses aplicativos de IA estão sendo direcionados para usos mais nefastos, incluindo a disseminação de malware. Veja o e-mail tradicional fraudulento, por exemplo: geralmente está repleto de erros óbvios de gramática e ortografia – erros que o último grupo de modelos de IA não comete, conforme observado em um relatório consultivo recente da Europol.

Pense nisso: muitos ataques de phishing e outras ameaças à segurança dependem da engenharia social, enganando os usuários para que eles revelem senhas, informações financeiras ou outros dados confidenciais. O texto persuasivo e autêntico necessário para esses golpes agora pode ser bombeado com bastante facilidade, sem a necessidade de esforço humano, e infinitamente ajustado e refinado para públicos específicos.

No caso do ChatGPT, é importante observar primeiro que o desenvolvedor OpenAI incorporou proteções nele. Peça-lhe para “escrever malware” ou um “e-mail de phishing” e ele dirá que está “programado para seguir diretrizes éticas rígidas que me proíbem de participar de qualquer atividade maliciosa, incluindo escrever ou auxiliar na criação de malware”.

O ChatGPT não codificará malware para você, mas é educado quanto a isso.

OpenAI por David Nield

No entanto, essas proteções não são muito difíceis de contornar: o ChatGPT certamente pode codificar e certamente pode compor e-mails. Mesmo que não saiba que está escrevendo malware, pode ser solicitado a produzir algo parecido. Já existem sinais de que os cibercriminosos estão trabalhando para contornar as medidas de segurança que foram implementadas.

Não estamos particularmente criticando o ChatGPT aqui, mas apontando o que é possível quando modelos de linguagem grandes (LLMs) como ele são usados ​​para propósitos mais sinistros. De fato, não é muito difícil imaginar organizações criminosas desenvolvendo seus próprios LLMs e ferramentas semelhantes para tornar seus golpes mais convincentes. E não é apenas texto: áudio e vídeo são mais difíceis de falsificar, mas também está acontecendo.

Quando se trata de seu chefe pedindo um relatório com urgência, ou o suporte técnico da empresa dizendo para você instalar um patch de segurança, ou seu banco informando que há um problema ao qual você precisa responder – todos esses golpes em potencial dependem da construção de confiança e soam genuínos , e isso é algo em que os bots de IA estão indo muito bem. Eles podem produzir texto, áudio e vídeo que pareçam naturais e personalizados para públicos específicos, e podem fazer isso de forma rápida e constante sob demanda.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo