technology

Os chatbots de IA podem inferir uma quantidade alarmante de informações sobre você a partir de suas respostas

.

olhos

Atakan/Getty Images

A maneira como você fala pode revelar muito sobre você, especialmente se estiver conversando com um chatbot. Uma nova pesquisa revela que chatbots como o ChatGPT podem inferir muitas informações confidenciais sobre as pessoas com quem conversam, mesmo que a conversa seja totalmente mundana.

O fenómeno parece resultar da forma como os algoritmos dos modelos são treinados com amplas faixas de conteúdo da web, uma parte fundamental do que os faz funcionar, provavelmente dificultando a sua prevenção. “Nem sequer está claro como resolver este problema”, diz Martin Vechev, professor de ciência da computação na ETH Zürich, na Suíça, que liderou a pesquisa. “Isso é muito, muito problemático.”

Vechev e sua equipe descobriram que os grandes modelos de linguagem que alimentam os chatbots avançados podem inferir com precisão uma quantidade alarmante de informações pessoais sobre os usuários – incluindo raça, localização, ocupação e muito mais – a partir de conversas que parecem inócuas.

Vechev diz que os golpistas podem usar a capacidade dos chatbots de adivinhar informações confidenciais sobre uma pessoa para coletar dados confidenciais de usuários inocentes. Ele acrescenta que a mesma capacidade subjacente poderia pressagiar uma nova era de publicidade, em que as empresas utilizam informações recolhidas de chatbots para construir perfis detalhados dos utilizadores.

Algumas das empresas por trás de chatbots poderosos também dependem fortemente de publicidade para obter lucros. “Eles já poderiam estar fazendo isso”, diz Vechev.

Os pesquisadores de Zurique testaram modelos de linguagem desenvolvidos pela OpenAI, Google, Meta e Anthropic. Eles dizem que alertaram todas as empresas sobre o problema. O porta-voz da OpenAI, Niko Felix, diz que a empresa se esforça para remover informações pessoais dos dados de treinamento usados ​​para criar seus modelos e os ajusta para rejeitar solicitações de dados pessoais. “Queremos que nossos modelos aprendam sobre o mundo, não sobre indivíduos”, diz ele. Os indivíduos podem solicitar que a OpenAI exclua informações pessoais divulgadas por seus sistemas. A Anthropic referiu-se à sua política de privacidade, que afirma que não coleta nem “vende” informações pessoais. Google e Meta não responderam a um pedido de comentário.

“Isso certamente levanta questões sobre quanta informação sobre nós mesmos estamos vazando inadvertidamente em situações em que poderíamos esperar o anonimato”, diz Florian Tramèr, professor assistente também na ETH Zürich que não esteve envolvido no trabalho, mas viu detalhes apresentados em uma conferência. semana passada.

Tramèr diz que não está claro para ele quanta informação pessoal poderia ser inferida desta forma, mas especula que os modelos de linguagem podem ser uma ajuda poderosa para desenterrar informações privadas. “Provavelmente existem algumas pistas que os LLMs são particularmente bons em encontrar, e outras onde a intuição humana e os antecedentes são muito melhores”, diz ele.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo