.
O cenário da IA começou a se mover muito, muito rápido: ferramentas voltadas para o consumidor, como Midjourney e ChatGPT, agora são capazes de produzir resultados incríveis de imagem e texto em segundos com base em prompts de linguagem natural, e estamos vendo-os sendo implantados em todos os lugares, desde pesquisas na Web até crianças livros.
No entanto, esses aplicativos de IA estão sendo direcionados para usos mais nefastos, incluindo a disseminação de malware. Veja o e-mail tradicional fraudulento, por exemplo: geralmente está repleto de erros óbvios de gramática e ortografia – erros que o último grupo de modelos de IA não comete, conforme observado em um relatório consultivo recente da Europol.
Pense nisso: muitos ataques de phishing e outras ameaças à segurança dependem da engenharia social, enganando os usuários para que eles revelem senhas, informações financeiras ou outros dados confidenciais. O texto persuasivo e autêntico necessário para esses golpes agora pode ser bombeado com bastante facilidade, sem a necessidade de esforço humano, e infinitamente ajustado e refinado para públicos específicos.
No caso do ChatGPT, é importante observar primeiro que o desenvolvedor OpenAI incorporou proteções nele. Peça-lhe para “escrever malware” ou um “e-mail de phishing” e ele dirá que está “programado para seguir diretrizes éticas rígidas que me proíbem de participar de qualquer atividade maliciosa, incluindo escrever ou auxiliar na criação de malware”.
No entanto, essas proteções não são muito difíceis de contornar: o ChatGPT certamente pode codificar e certamente pode compor e-mails. Mesmo que não saiba que está escrevendo malware, pode ser solicitado a produzir algo parecido. Já existem sinais de que os cibercriminosos estão trabalhando para contornar as medidas de segurança que foram implementadas.
Não estamos particularmente criticando o ChatGPT aqui, mas apontando o que é possível quando modelos de linguagem grandes (LLMs) como ele são usados para propósitos mais sinistros. De fato, não é muito difícil imaginar organizações criminosas desenvolvendo seus próprios LLMs e ferramentas semelhantes para tornar seus golpes mais convincentes. E não é apenas texto: áudio e vídeo são mais difíceis de falsificar, mas também está acontecendo.
Quando se trata de seu chefe pedindo um relatório com urgência, ou o suporte técnico da empresa dizendo para você instalar um patch de segurança, ou seu banco informando que há um problema ao qual você precisa responder – todos esses golpes em potencial dependem da construção de confiança e soam genuínos , e isso é algo em que os bots de IA estão indo muito bem. Eles podem produzir texto, áudio e vídeo que pareçam naturais e personalizados para públicos específicos, e podem fazer isso de forma rápida e constante sob demanda.
.