.
Com um interesse crescente em sistemas generativos de inteligência artificial (IA) em todo o mundo, pesquisadores da Universidade de Surrey criaram um software capaz de verificar quanta informação uma IA extraiu do banco de dados digital de uma organização.
O software de verificação da Surrey pode ser usado como parte do protocolo de segurança online de uma empresa, ajudando uma organização a entender se uma IA aprendeu demais ou até mesmo acessou dados confidenciais.
O software também é capaz de identificar se a IA identificou e é capaz de explorar falhas no código do software. Por exemplo, em um contexto de jogo online, ele pode identificar se uma IA aprendeu a sempre vencer no pôquer online explorando uma falha de codificação.
A Dra. Solofomampionona Fortunat Rajaona é pesquisadora em verificação formal de privacidade na Universidade de Surrey e principal autora do artigo. Ele disse:
“Em muitas aplicações, os sistemas de IA interagem uns com os outros ou com humanos, como carros autônomos em uma rodovia ou robôs hospitalares. Descobrir o que um sistema inteligente de dados de IA sabe é um problema contínuo que levamos anos para encontrar uma solução funcional. solução para.
“Nosso software de verificação pode deduzir o quanto a IA pode aprender com sua interação, se eles têm conhecimento suficiente para permitir uma cooperação bem-sucedida e se têm muito conhecimento que violará a privacidade. Por meio da capacidade de verificar o que a IA aprendeu, podemos fornecer organizações a confiança para liberar com segurança o poder da IA em configurações seguras.”
O estudo sobre o software de Surrey ganhou o prêmio de melhor artigo no 25º Simpósio Internacional de Métodos Formais.
O professor Adrian Hilton, diretor do Institute for People-Centred AI da Universidade de Surrey, disse:
“Nos últimos meses, houve uma grande onda de interesse do público e da indústria em modelos de IA generativos alimentados por avanços em grandes modelos de linguagem, como o ChatGPT. A criação de ferramentas que possam verificar o desempenho da IA generativa é essencial para sustentar sua segurança e implantação responsável. Esta pesquisa é um passo importante para manter a privacidade e a integridade dos conjuntos de dados usados no treinamento.”
Outras informações: https://openresearch.surrey.ac.uk/esploro/outputs/99723165702346
.