.
O ChatGPT pode ser induzido a produzir código malicioso que pode ser usado para lançar ataques cibernéticos, descobriu um estudo.
A ferramenta OpenAI e chatbots semelhantes podem criar conteúdo escrito com base em comandos do usuário, tendo sido treinados em enormes quantidades de dados de texto provenientes da Internet.
Eles são projetados com proteções para evitar seu uso indevido, além de abordar questões como preconceitos.
Como tal, os malfeitores recorreram a alternativas criadas propositadamente para ajudar no crime cibernético, como uma ferramenta da dark web chamada WormGPT. que os especialistas alertaram que poderia ajudar a desenvolver ataques em grande escala.
Mas pesquisadores da Universidade de Sheffield alertaram que também existem vulnerabilidades nas opções convencionais que permitem que elas sejam enganadas para ajudar a destruir bancos de dados, roubar informações pessoais e derrubar serviços.
Esses incluem Bate-papoGPT e uma plataforma semelhante criada pela empresa chinesa Baidu.
O estudante de doutorado em ciência da computação Xutan Peng, que co-liderou o estudo, disse: “O risco com IAAlgo como o ChatGPT é que cada vez mais pessoas os usam como ferramentas de produtividade, e não como um bot de conversação.
“É aqui que nossa pesquisa mostra que estão as vulnerabilidades.”
Consulte Mais informação:
Martin Lewis alerta contra vídeo ‘assustador’ de fraude de IA
IA ‘não tem capacidade de assumir o controle’, diz chefe da Microsoft
Código gerado por IA ‘pode ser prejudicial’
Assim como essas ferramentas generativas de IA podem inadvertidamente errar nos fatos ao responder perguntas, elas também podem criar códigos de computador potencialmente prejudiciais sem perceber.
Sr. Peng sugeriu que uma enfermeira poderia usar ChatGPT para escrever código para navegar em um banco de dados de registros de pacientes.
“O código produzido pelo ChatGPT em muitos casos pode ser prejudicial a um banco de dados”, disse ele.
“A enfermeira neste cenário pode causar falhas graves no gerenciamento de dados sem sequer receber um aviso”.
Durante o estudo, os próprios cientistas conseguiram criar códigos maliciosos usando o chatbot do Baidu.
A empresa reconheceu a pesquisa e agiu para abordar e corrigir as vulnerabilidades relatadas.
Tais preocupações resultaram em apelos para mais transparência na forma como os modelos de IA são treinadospara que os usuários se tornem mais compreensivos e perceptivos sobre possíveis problemas com as respostas que fornecem.
A empresa de pesquisa de segurança cibernética Check Point também instou as empresas a atualizarem suas proteções, já que a IA ameaça tornar os ataques mais sofisticados.
Será um tema de conversa na Cimeira de Segurança da IA do Reino Unido na próxima semana, com o governo a convidar líderes mundiais e gigantes da indústria a reunirem-se para discutir as oportunidades e os perigos da tecnologia.
.