Ciência

O Copilot expõe as páginas particulares do github, algumas removidas pelo Microsoftvar Abtest_2078858 = novo abtest (2078858, ‘Click’);

.

O Assistente da Microsoft Copilot AI está expondo o conteúdo de mais de 20.000 repositórios particulares do GitHub de empresas como Google, Intel, Huawei, PayPal, IBM, Tencent e, ironicamente, Microsoft.

Esses repositórios, pertencentes a mais de 16.000 organizações, foram originalmente publicados no GitHub como público, mas depois foram definidos como privados, geralmente depois que os desenvolvedores responsáveis ​​perceberam que continham credenciais de autenticação, permitindo acesso não autorizado ou outros tipos de dados confidenciais. Mesmo meses depois, no entanto, as páginas particulares permanecem disponíveis na íntegra através da Copilot.

A empresa de segurança da IA ​​Lasso descobriu o comportamento no segundo semestre de 2024. Depois de descobrir em janeiro que o Copilot continuou a armazenar repositórios particulares e disponibilizá -los, Lasso decidiu medir o tamanho do problema.

Repositórios de zumbi

“Depois de perceber que quaisquer dados no Github, mesmo que o público por apenas um momento, possam ser indexados e potencialmente expostos por ferramentas como o Copilot, ficamos impressionados com a facilidade com que essas informações poderiam ser acessadas”, escreveu os pesquisadores de Lasso Ophir Dror e Bar Lanyado em um Post na quinta -feira. “Determinado a entender toda a extensão da questão, decidimos automatizar o processo de identificação de repositórios de zumbis (repositórios que antes eram públicos e agora são privados) e validar nossas descobertas.”

Após descobrir que a Microsoft estava expondo um dos próprios repositórios privados de Lasso, os pesquisadores da LASSO atribuíram o problema ao mecanismo de cache no Bing. O mecanismo de pesquisa da Microsoft indexou as páginas quando foi publicado publicamente e nunca se preocupou em remover as entradas depois que as páginas foram alteradas para privadas no GitHub. Como a Copilot usou o Bing como seu mecanismo de pesquisa primário, os dados privados também estavam disponíveis no AI Chat Bot.

Depois que Lasso relatou o problema em novembro, a Microsoft introduziu alterações projetadas para corrigi -lo. LASSO confirmou que os dados privados não estavam mais disponíveis no Bing Cache, mas continuou a fazer uma descoberta interessante – a disponibilidade no copiloto de um repositório do GitHub que havia sido divulgado após uma ação que a Microsoft havia arquivado. O processo alegou que o repositório hospedou ferramentas projetadas especificamente para ignorar os corrimãos de segurança e segurança incorporados aos serviços generativos de IA da empresa. O repositório foi posteriormente removido do Github, mas, como se viu, o copilot continuou a disponibilizar as ferramentas de qualquer maneira.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo