.
Aqui está um experimento sendo executado por estudantes de graduação em ciência da computação em todos os lugares: peça ao ChatGPT para gerar e-mails de phishing e teste se eles são melhores para persuadir as vítimas a responder ou clicar no link do que o spam comum. É um experimento interessante, e os resultados provavelmente variam muito com base nos detalhes do experimento.
Mas, embora seja um experimento fácil de executar, ele perde o risco real de modelos de linguagem grandes (LLMs) escreverem e-mails fraudulentos. Os golpes humanos de hoje não são limitados pelo número de pessoas que respondem ao contato de e-mail inicial. Eles são limitados pelo processo trabalhoso de persuadir essas pessoas a enviar dinheiro ao golpista. Os LLMs estão prestes a mudar isso.
Uma década atrás, um tipo de e-mail de spam se tornou uma piada em todos os programas noturnos: “Sou filho do falecido rei da Nigéria e preciso de sua ajuda …” Quase todo mundo recebeu um ou mil desses e-mails, a tal ponto que parecia que todos deviam saber que eram fraudes.
Então, por que os golpistas ainda enviavam e-mails obviamente duvidosos? Em 2012, o pesquisador Cormac Herley ofereceu uma resposta: eliminou todos, exceto os mais crédulos. Um golpista esperto não quer perder tempo com pessoas que respondem e depois percebem que é uma farsa quando solicitadas a transferir dinheiro. Ao usar um e-mail fraudulento óbvio, o golpista pode se concentrar nas pessoas potencialmente mais lucrativas. Leva tempo e esforço para se engajar nas comunicações de ida e volta que marcam o cutucão, passo a passo, do interlocutor ao conhecido de confiança e ao mendigo.
Golpes financeiros de longa duração são agora conhecidos como abate de porcos, aumentando a marca potencial até sua morte final e repentina. Esses golpes, que exigem ganhar confiança e se infiltrar nas finanças pessoais de um alvo, levam semanas ou até meses de tempo pessoal e interações repetidas. É um jogo de alto risco e baixa probabilidade que o golpista está jogando.
Aqui é onde os LLMs farão a diferença. Muito já foi escrito sobre a falta de confiabilidade dos modelos GPT da OpenAI e outros como eles: eles “alucinam” com frequência, inventando coisas sobre o mundo e jorrando bobagens com confiança. Para entretenimento, isso é bom, mas para a maioria dos usos práticos é um problema. No entanto, não é um bug, mas um recurso quando se trata de golpes: a capacidade dos LLMs de lidar com os socos com confiança, não importa o que um usuário jogue contra eles, será útil para os golpistas enquanto eles navegam hostis, confusos e crédulos alvos de golpes aos bilhões. Os golpes de chatbot de IA podem atrair mais pessoas, porque o grupo de vítimas que se apaixonarão por um golpista mais sutil e flexível – um que foi treinado em tudo o que já foi escrito on-line – é muito maior do que o grupo daqueles que acreditam que o rei da Nigéria deseja para dar-lhes um bilhão de dólares.
Os computadores pessoais são poderosos o suficiente hoje para executar LLMs compactos. Depois que o novo modelo do Facebook, LLaMA, vazou online, os desenvolvedores o ajustaram para rodar rápido e barato em laptops poderosos. Vários outros LLMs de código aberto estão em desenvolvimento, com uma comunidade de milhares de engenheiros e cientistas.
Um único golpista, de seu laptop em qualquer lugar do mundo, agora pode executar centenas ou milhares de golpes em paralelo, noite e dia, com marcas em todo o mundo, em todos os idiomas sob o sol. Os chatbots de IA nunca dormem e sempre estarão se adaptando ao longo de seu caminho para seus objetivos. E novos mecanismos, de plug-ins ChatGPT a LangChain, permitirão a composição de IA com milhares de serviços em nuvem baseados em API e ferramentas de código aberto, permitindo que os LLMs interajam com a Internet como os humanos. As personificações em tais golpes não são mais apenas príncipes oferecendo as riquezas de seu país. Eles são estranhos desamparados em busca de romance, novas criptomoedas quentes que logo dispararão em valor e novos sites financeiros aparentemente sólidos que oferecem retornos incríveis sobre depósitos. E as pessoas já estão se apaixonando pelos LLMs.
Esta é uma mudança tanto no escopo quanto na escala. Os LLMs mudarão o pipeline de golpes, tornando-os mais lucrativos do que nunca. Não sabemos viver em um mundo com um bilhão ou 10 bilhões de golpistas que nunca dormem.
Haverá também uma mudança na sofisticação desses ataques. Isso se deve não apenas aos avanços da IA, mas também ao modelo de negócios da internet – o capitalismo de vigilância – que produz uma grande quantidade de dados sobre todos nós, disponíveis para compra em corretores de dados. Ataques direcionados contra indivíduos, seja para phishing ou coleta de dados ou golpes, antes estavam apenas ao alcance dos estados-nação. Combine os dossiês digitais que os corretores de dados têm sobre todos nós com os LLMs e você terá uma ferramenta feita sob medida para golpes personalizados.
Empresas como a OpenAI tentam impedir que seus modelos façam coisas ruins. Mas com o lançamento de cada novo LLM, os sites de mídia social fervilham com novos jailbreaks de IA que fogem das novas restrições impostas pelos projetistas da IA. O ChatGPT, o Bing Chat e o GPT-4 foram todos desbloqueados minutos após o lançamento e de dezenas de maneiras diferentes. A maioria das proteções contra maus usos e resultados nocivos são apenas superficiais, facilmente contornadas por determinados usuários. Uma vez que um jailbreak é descoberto, ele geralmente pode ser generalizado, e a comunidade de usuários puxa o LLM através das fendas em sua armadura. E a tecnologia está avançando muito rápido para qualquer um entender completamente como eles funcionam, até mesmo os designers.
No entanto, tudo isso é uma velha história: ela nos lembra que muitos dos maus usos da IA são mais um reflexo da humanidade do que da própria tecnologia de IA. Os golpes não são nada de novo – simplesmente intenção e, em seguida, ação de uma pessoa enganando outra para ganho pessoal. E o uso de outros como lacaios para realizar golpes infelizmente não é nada novo ou incomum: por exemplo, o crime organizado na Ásia atualmente sequestra ou contrata milhares em fábricas fraudulentas. É melhor que o crime organizado não veja mais a necessidade de explorar e abusar fisicamente das pessoas para executar suas operações fraudulentas, ou pior que eles e muitos outros possam escalar os golpes a um nível sem precedentes?
A defesa pode e vai alcançá-la, mas antes que isso aconteça, nossa relação sinal-ruído cairá drasticamente.
.








