.

Embora a capacidade do ChatGPT de gerar respostas semelhantes às humanas tenha sido amplamente celebrada, ela também representa o maior risco para as empresas.
Também: Como funciona o ChatGPT?
A ferramenta de inteligência artificial (IA) já está sendo usada para aprimorar os ataques de phishing, disse Jonathan Jackson, diretor de engenharia da BlackBerry na Ásia-Pacífico.
Apontando para as atividades detectadas em fóruns clandestinos, ele disse que havia indícios de que os hackers estavam usando o ChatGPT da OpenAI e outros chatbots com inteligência artificial para melhorar os ataques de representação. Eles também foram usados para alimentar deepfakes e espalhar desinformação, disse Jackson em uma entrevista em vídeo ao Strong The One. Ele acrescentou que os fóruns de hackers estavam oferecendo serviços para alavancar o ChatGPT para fins nefastos.
Também: Os golpistas estão usando IA para se passar por seus entes queridos. Aqui está o que observar
Em uma nota publicada no mês passado, o gerente do grupo de inteligência de ameaças da Check Point Technologies, Sergey Shykevich, também observou que os sinais apontavam para o uso do ChatGPT entre os cibercriminosos para acelerar a escrita de códigos. Em uma instância, o fornecedor de segurança observou que a ferramenta foi usada para concluir com êxito um fluxo de infecção, que incluía a criação de um e-mail de spear phishing convincente e um shell de reserva que aceitava comandos em inglês.
Embora os códigos de ataque desenvolvidos até agora permaneçam bastante básicos, Shykevich disse que é apenas uma questão de tempo até que agentes de ameaças mais sofisticados aprimorem a maneira como usam essas ferramentas baseadas em IA.
Alguns “efeitos colaterais” surgirão das tecnologias que alimentam os deepfakes e o ChatGPT, escreveu o principal cientista do Synopsys Software Integrity Group, Sammy Migues, em suas previsões para 2023. As pessoas que precisam de conselhos de “especialistas” ou suporte técnico sobre como configurar um novo dispositivo de segurança podem recorrer ao ChatGPT. Eles também podem ter a ferramenta de IA para escrever módulos de criptografia ou executar anos de dados de log para gerar análises de orçamento.
Também: As pessoas já estão tentando fazer com que o ChatGPT grave malware
“As possibilidades são infinitas”, disse Migues. “Claro, a IA é apenas um autômato irracional vomitando coisas que montou, mas pode ser bastante convincente à primeira vista.”
Tocar na IA para combater a IA
Jackson observou que o surgimento de aplicativos generativos de IA, como o ChatGPT, levaria a uma mudança significativa no cenário cibernético. As ferramentas de segurança e defesa cibernética precisarão ser capazes de identificar novas ameaças emergentes como resultado de grandes modelos de linguagem nos quais esses aplicativos são construídos, disse ele.
Também: Quão grande é essa nova IA generativa? Pense na interrupção no nível da Internet
Isso é pertinente, pois as empresas esperam que esses riscos ocorram em breve.
Na Austrália, 84% dos tomadores de decisão de TI expressaram preocupação com as ameaças potenciais que a IA generativa e os grandes modelos de linguagem poderiam trazer, de acordo com um estudo recente da BlackBerry, que entrevistou 500 entrevistados no país.
A maior preocupação, entre metade dos entrevistados, era que a tecnologia pudesse ajudar hackers menos experientes a melhorar seus conhecimentos e desenvolver habilidades mais especializadas.
Outros 48% estavam preocupados com a capacidade do ChatGPT de produzir mensagens de e-mail de phishing com aparência mais confiável e legítima; 36% viram seu potencial para acelerar ataques de engenharia social.
Também: Esses especialistas estão correndo para proteger a IA dos hackers. O tempo está se esgotando
Cerca de 46% estavam preocupados com seu uso para espalhar informações incorretas ou desinformadas, com 67% acreditando que era provável que nações estrangeiras já estivessem usando o ChatGPT para fins maliciosos.
Pouco mais da metade, com 53%, antecipou que a indústria estava a menos de um ano de ver o primeiro ataque cibernético bem-sucedido impulsionado pela tecnologia de IA, enquanto 26% disseram que isso aconteceria entre um e dois anos e 12% disseram que aconteceria. levar de três a cinco anos.
E enquanto 32% achavam que a tecnologia não melhoraria nem pioraria a segurança cibernética, 24% acreditavam que agravaria o cenário de ameaças. Por outro lado, 40% disseram que poderia ajudar a melhorar a segurança cibernética.
Cerca de 90% dos entrevistados australianos acreditam que os governos têm a responsabilidade de regulamentar tecnologias avançadas, como o ChatGPT. Outros 40% sentiram que as ferramentas de segurança cibernética atualmente estavam ficando para trás na inovação em crimes cibernéticos, com 30% observando que os cibercriminosos se beneficiariam mais com o ChatGPT.
Também: Estou usando o ChatGPT para me ajudar a corrigir o código mais rapidamente, mas a que custo?
Cerca de 60%, porém, disseram que a tecnologia beneficiaria mais os pesquisadores, enquanto 56% acreditavam que as profissões de segurança poderiam se beneficiar mais dela.
Cerca de 85% planejam investir em ferramentas de cibersegurança baseadas em IA nos próximos dois anos.
No entanto, o uso de IA e automação em ambos os lados para lançar e se defender contra ataques cibernéticos está longe de ser novidade. Então, por que o barulho agora?
Jackson reconheceu que a IA foi usada na defesa cibernética por anos, mas observou que a característica única do ChatGPT e de outras ferramentas semelhantes era a capacidade de transformar conceitos inerentemente complexos, como linguagens de codificação, em algo que qualquer um pudesse entender.
Também: Como usar o ChatGPT: tudo o que você precisa saber
Essas ferramentas são executadas em grandes modelos de linguagem baseados em grandes quantidades de conjuntos de dados comerciais contextuais com curadoria. “É muito poderoso em coisas específicas”, observou ele. “ChatGPT é um recurso incrivelmente poderoso para qualquer pessoa [who wants] para criar bons códigos ou, neste caso, códigos maliciosos, como scripts para burlar a defesa de uma rede.”
Ele também pode ser usado para rastrear na web o perfil de mídia social de indivíduos específicos para criá-los e representá-los para ataques de spear phishing
“O maior impacto está na engenharia social e na representação”, disse ele, acrescentando que ferramentas como o ChatGPT serão usadas para melhorar as campanhas de phishing.
Com o surgimento de grandes modelos de linguagem, ele enfatizou a necessidade de repensar as abordagens tradicionais de defesa cibernética e de dados. Ele apontou a importância de explorar a IA e o aprendizado de máquina para combater ataques com IA.
Investir em recursos de IA e aprendizado de máquina ajudará as organizações a identificar ameaças potenciais mais rapidamente, o que é importante, disse ele. “Usar humanos não é mais realista e não foi nos últimos anos”.
Também: Pedi ao ChatGPT para escrever um plugin WordPress que eu precisava. Fiz isso em menos de 5 minutos
Jackson observou que o BlackBerry está trabalhando no algoritmo necessário para treinar modelos na identificação de mudanças nas técnicas de ataque e no bloqueio de conteúdo malicioso que parece ser gerado por grandes modelos de linguagem. Volume e velocidade serão fundamentais, acrescentou ele, para que possa acompanhar os ataques em potencial, mesmo que o ChatGPT e ferramentas semelhantes continuem a evoluir.
Ele enfatizou ainda que esses aplicativos também tiveram um impacto positivo na indústria. A BlackBerry, por exemplo, está usando o ChatGPT para caça avançada a ameaças, aproveitando sua capacidade de codificação para digerir e analisar scripts complexos, para que possa estudar como eles operam e aprimorar suas táticas de defesa.
.








