Ciência e Tecnologia

Chatgpt acertou com queixa de privacidade sobre alucinações difamatórias

.

O OpenAI está enfrentando outra queixa de privacidade na Europa sobre a tendência de seu chatbot viral de AI de alucinar informações falsas – e essa pode ser complicada para os reguladores ignorarem.

Grupo de defesa de direitos de privacidade Noyb está apoiando um indivíduo na Noruega que ficou horrorizado ao encontrar o Chatgpt devolvendo informações inventadas que afirmavam que ele havia sido condenado por assassinar dois de seus filhos e tentar matar o terceiro.

As queixas anteriores de privacidade sobre o ChatGPT gerando dados pessoais incorretos envolveram questões como uma data de nascimento incorreta ou detalhes biográficos que estão errados. Uma preocupação é que o OpenAI não ofereça uma maneira de os indivíduos corrigirem informações incorretas que a IA gera sobre eles. Normalmente, o OpenAI se ofereceu para bloquear as respostas para tais instruções. Mas, sob o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, os europeus têm um conjunto de direitos de acesso a dados que incluem o direito à retificação de dados pessoais.

Outro componente dessa lei de proteção de dados exige que os controladores de dados garantem que os dados pessoais que eles produzam sobre os indivíduos sejam precisos – e essa é uma preocupação que a Noyb está sinalizando com sua mais recente reclamação de chatgpt.

“O GDPR é claro. Os dados pessoais devem ser precisos”, disse Joakim Söderberg, advogado de proteção de dados da Noyb, em comunicado. “Se não for, os usuários têm o direito de mudar para refletir a verdade. Mostrar aos usuários do ChatGPT um pequeno aviso de que o chatbot pode cometer erros claramente não é suficiente. Você não pode simplesmente espalhar informações falsas e, no final, adicionar um pequeno aviso dizendo que tudo o que você disse pode não ser verdadeiro.”

As violações confirmadas do GDPR podem levar a penalidades de até 4% do faturamento anual global.

A aplicação também pode forçar mudanças nos produtos de IA. Notavelmente, uma intervenção precoce do GDPR do cão de guarda de proteção de dados da Itália que viu o acesso do ChatGPT temporariamente bloqueado no país na primavera de 2023 LED OpenAI para fazer alterações nas informações que ele divulga aos usuários, por exemplo. O Watchdog posteriormente passou a Fine OpenAi € 15 milhões para processar os dados das pessoas sem uma base legal adequada.

Desde então, porém, é justo dizer que os vigilantes da privacidade na Europa adotaram uma abordagem mais cautelosa a Genai, enquanto tentam descobrir a melhor forma de aplicar o GDPR a essas ferramentas Buzzy AI.

Dois anos atrás, a Comissão de Proteção de Dados da Irlanda (DPC) – que tem uma função de aplicação do GDPR em uma reclamação anterior do Noyb ChatGPT – instado contra correr para proibir Ferramentas Genai, por exemplo. Isso sugere que os reguladores devem levar tempo para descobrir como a lei se aplica.

E é notável que uma queixa de privacidade contra o ChatGPT que está sob investigação do vigia de proteção de dados da Polônia desde setembro de 2023 ainda não tenha produzido uma decisão.

A nova reclamação de ChatGPT da NOYB parece sacudir os reguladores de privacidade acordados quando se trata dos perigos de alucinar a AIS.

A organização sem fins lucrativos compartilhou a captura de tela (abaixo) com o Strong The One, que mostra uma interação com o ChatGPT, no qual a IA responde a uma pergunta fazendo “Quem é Hjalmar Holmen?” – O nome do indivíduo que traz a queixa – produzindo uma ficção trágica que afirma falsamente que ele foi condenado por assassinato infantil e condenado a 21 anos de prisão por matar dois de seus próprios filhos.

Embora a alegação difamatória de que Hjalmar Holmen seja uma criança assassina é totalmente falsa, Noyb observa que a resposta do ChatGPT inclui algumas verdades, já que o indivíduo em questão tem três filhos. O chatbot também acertou os sexos de seus filhos. E sua cidade natal é nomeada corretamente. Mas isso torna ainda mais bizarro e perturbador que a IA alucinou falsidades tão horríveis no topo.

Um porta -voz da Noyb disse que não conseguiu determinar por que o chatbot produziu uma história tão específica, porém falsa, para esse indivíduo. “Pesquisamos para garantir que isso não fosse apenas uma confusão com outra pessoa”, disse o porta-voz, observando que eles procuraram arquivos de jornais, mas não foram capazes de encontrar uma explicação para o motivo pelo qual a IA fabricou a criança matando.

Modelos de idiomas grandes, como o chatgpt subjacente, essencialmente fazem previsão de palavras em uma vasta escala, para que pudéssemos especular que os conjuntos de dados usados ​​para treinar a ferramenta continham muitas histórias de filicídio que influenciaram as opções de palavras em resposta a uma consulta sobre um homem nomeado.

Qualquer que seja a explicação, fica claro que essas saídas são totalmente inaceitáveis.

A afirmação de Noyb também é que eles são ilegais sob as regras de proteção de dados da UE. E enquanto o OpenAI exibe um minúsculo aviso na parte inferior da tela que diz que “o ChatGPT pode cometer erros. Verifique informações importantes”, diz que isso não pode absolver o desenvolvedor da IA ​​de seu dever sob o GDPR de não produzir falsidades flagrantes sobre as pessoas em primeiro lugar.

O OpenAI foi contatado para uma resposta à denúncia.

Enquanto essa queixa do GDPR refere -se a um indivíduo chamado, Noyb aponta para outros casos de chatgpt fabricando informações que comprometem legalmente – como o major australiano que disse que estava implicado em um escândalo de suborno e corrupção ou Um jornalista alemão que foi falsamente nomeado como abusador de criança – Dizer que está claro que este não é um problema isolado para a ferramenta de IA.

Uma coisa importante a observar é que, seguindo uma atualização para o modelo de IA subjacente que alimenta ChatGPT, Noyb diz que o chatbot parou de produzir as falsidades perigosas sobre Hjalmar Holmen – uma mudança que se vincula à ferramenta agora que procura) a Internet para que as pessoas sejam solicitadas, que são perguntadas por que antes, que antes, um em branco, que pode ser realizado na Internet), que antes é que um em branco, que pode ser realizado em termos de dados, que é uma vez que, em branco, é uma das pessoas que se referem a um espaço em branco, que é um dos dados que seriam loucamente em que um em branco, em branco, pode ser um dos dados que seriam loucamente à internet, que não foi perguntada, que antes é que um em branco, em branco, pode ser um dos dados que seriam loucamente em que um em branco, que é um dos dados que seriam loucamente, que é uma vez que, em branco, que se refere a um espaço em branco, que é uma vez que, em branco, é que, em vez disso

Em nossos próprios testes, perguntando a Chatgpt “Quem é Hjalmar Holmen?” O ChatGPT respondeu inicialmente com uma combinação um pouco estranha, exibindo algumas fotos de pessoas diferentes, aparentemente provenientes de sites como Instagram, SoundCloud e Discogs, juntamente com o texto que afirmava que “não conseguiu encontrar nenhuma informação” sobre um indivíduo desse nome (veja nossa tela abaixo). Uma segunda tentativa apresentou uma resposta que identificou o Arve Hjalmar Holmen como “um músico e compositor norueguês”, cujos álbuns incluem “Honky Tonk Inferno”.

tiro de chatgpt: Natasha Lomas/Strong The One

Enquanto falsidades perigosas geradas por ChatGPT sobre Hjalmar Holmen parecem ter parado, Noyb e Hjalmar Holmen permanecem preocupadas com o fato de que informações incorretas e difamatórias sobre ele poderiam ter sido mantidas no modelo de IA.

“Adicionar um aviso de que você não cumpre a lei não faz com que a lei desapareça”, observou Kleanthi Sardeli, outro advogado de proteção de dados da Noyb, em comunicado. “As empresas de IA também podem não apenas ‘ocultar’ informações falsas dos usuários enquanto ainda processam informações falsas internamente.”

“As empresas de IA deveriam parar de agir como se o GDPR não se aplique a elas, quando claramente o faz”, acrescentou. “Se as alucinações não forem interrompidas, as pessoas podem sofrer danos de reputação facilmente”.

O NOYB apresentou a queixa contra o OpenAI à Autoridade de Proteção de Dados Norueguês – e espera que o cão de guarda decidir que é competente investigar, uma vez que o OYB está mirando a queixa na entidade dos EUA da Openai, argumentando que seu escritório na Irlanda não é apenas responsável pelas decisões de produtos que afetam os europeus.

No entanto, uma queixa anterior do GDPR apoiada pelo NOYB contra o OpenAI, que foi arquivada na Áustria em abril de 2024, foi referida pelo regulador do DPC da Irlanda por conta de uma alteração feita pelo OpenAI no início daquele ano, para nomear sua divisão irlandesa como provedor do serviço CHATGPT para usuários regionais.

Onde está essa reclamação agora? Ainda sentado em uma mesa na Irlanda.

“Tendo recebido a denúncia da Autoridade de Supervisão Austríaca em setembro de 2024, o DPC iniciou o manuseio formal da denúncia e ainda está em andamento”, disse Risteard Byrne, assistente de comunicações diretores do DPC para o Strong The One quando solicitado a uma atualização.

Ele não ofereceu nenhuma direção quando a investigação do DPC sobre as alucinações do ChatGPT deverá concluir.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo