.
Nos últimos oito meses, o ChatGPT impressionou milhões de pessoas com sua capacidade de gerar texto de aparência realista, escrevendo tudo, desde histórias até códigos. Mas o chatbot, desenvolvido pela OpenAI, ainda é relativamente limitado no que pode fazer.
O modelo de linguagem grande (LLM) recebe “prompts” dos usuários que ele usa para gerar texto ostensivamente relacionado. Essas respostas são criadas em parte a partir de dados extraídos da Internet em setembro de 2021 e não extraem novos dados da Web. Digite plug-ins, que adicionam funcionalidade, mas estão disponíveis apenas para pessoas que pagam para acessar o GPT-4, a versão atualizada do modelo da OpenAI.
Desde que a OpenAI lançou plugins para ChatGPT em março, os desenvolvedores correram para criar e publicar plugins que permitem que o chatbot faça muito mais. Os plug-ins existentes permitem que você pesquise voos e planeje viagens, além de fazer com que o ChatGPT possa acessar e analisar textos em sites, documentos e vídeos. Outros plugins são mais específicos, prometendo a você a capacidade de conversar com o manual do proprietário da Tesla ou pesquisar discursos políticos britânicos. Existem atualmente mais de 100 páginas de plugins listados na loja de plugins do ChatGPT.
Mas em meio à explosão dessas extensões, os pesquisadores de segurança dizem que há alguns problemas com a maneira como os plug-ins operam, o que pode colocar os dados das pessoas em risco ou potencialmente ser abusado por hackers mal-intencionados.
Johann Rehberger, diretor da equipe vermelha da Electronic Arts e pesquisador de segurança, tem documentado problemas com os plug-ins do ChatGPT em seu tempo livre. O pesquisador documentou como os plug-ins do ChatGPT podem ser usados para roubar o histórico de bate-papo de alguém, obter informações pessoais e permitir que o código seja executado remotamente na máquina de alguém. Ele tem se concentrado principalmente em plug-ins que usam OAuth, um padrão da web que permite compartilhar dados entre contas online. Rehberger diz que entrou em contato em particular com cerca de meia dúzia de desenvolvedores de plugins para levantar questões e entrou em contato com a OpenAI algumas vezes.
“O ChatGPT não pode confiar no plugin”, diz Rehberger. “Ele basicamente não pode confiar no que vem do plug-in porque pode ser qualquer coisa.” Um site ou documento malicioso pode, por meio do uso de um plug-in, tentar executar um ataque de injeção imediata contra o modelo de linguagem grande (LLM). Ou pode inserir cargas maliciosas, diz Rehberger.
Os dados também podem ser roubados por meio da falsificação de solicitação de plug-in cruzado, diz o pesquisador. Um site pode incluir uma injeção de prompt que faz com que o ChatGPT abra outro plug-in e execute ações extras, que ele mostrou por meio de uma prova de conceito. Os pesquisadores chamam isso de “encadeamento”, onde um plug-in chama outro para operar. “Não há limites reais de segurança” nos plug-ins ChatGPT, diz Rehberger. “Não está muito bem definido, qual a segurança e confiança, quais as reais responsabilidades [are] de cada parte interessada”.
Desde o lançamento em março, os plug-ins do ChatGPT estão em versão beta – essencialmente uma versão experimental inicial. Ao usar plug-ins no ChatGPT, o sistema avisa que as pessoas devem confiar em um plug-in antes de usá-lo e que, para que o plug-in funcione, o ChatGPT pode precisar enviar sua conversa e outros dados para o plug-in.
Niko Felix, porta-voz da OpenAI, diz que a empresa está trabalhando para melhorar o ChatGPT contra “exploits” que podem levar ao abuso de seu sistema. Atualmente, ele revisa os plug-ins antes de incluí-los em sua loja. Em um post de blog em junho, a empresa disse que viu pesquisas mostrando como “dados não confiáveis da saída de uma ferramenta podem instruir o modelo a executar ações não intencionais”. E que incentiva os desenvolvedores a fazer as pessoas clicarem em botões de confirmação antes que ações com “impacto no mundo real”, como enviar um e-mail, sejam feitas pelo ChatGPT.
.








