technology

Watchdog do Reino Unido adverte desenvolvedores de chatbot sobre leis de proteção de dados | Chatbots

.

O órgão regulador de dados da Grã-Bretanha emitiu um alerta para as empresas de tecnologia sobre o uso de informações pessoais das pessoas para desenvolver chatbots após preocupações de que a tecnologia subjacente seja treinada em grandes quantidades de material não filtrado extraído da web.

A intervenção do Information Commissioner’s Office ocorreu depois que seu homólogo italiano baniu temporariamente o ChatGPT por questões de privacidade de dados.

A ICO disse que as empresas que desenvolvem e usam chatbots devem respeitar a privacidade das pessoas ao construir sistemas generativos de inteligência artificial. O ChatGPT, o exemplo mais conhecido de IA generativa, é baseado em um sistema chamado modelo de linguagem grande (LLM) que é “treinado” ao ser alimentado por um vasto tesouro de dados selecionados da Internet.

“Realmente não pode haver desculpa para entender errado as implicações de privacidade da IA ​​generativa. Estaremos trabalhando arduamente para garantir que as organizações acertem”, disse Stephen Almond, diretor de tecnologia e inovação da ICO.

Em uma postagem no blog, Almond apontou para a decisão da Itália e uma carta assinada por acadêmicos na semana passada, incluindo Elon Musk e o cofundador da Apple, Steve Wozniak, que pedia uma pausa imediata na criação de “experimentos gigantes de IA” por pelo menos seis meses. A carta dizia que havia preocupações de que as empresas de tecnologia estivessem criando “mentes digitais cada vez mais poderosas” que ninguém poderia “entender, prever ou controlar de forma confiável”.

Almond disse que sua própria conversa com o ChatGPT levou o chatbot a dizer que a IA generativa tinha “o potencial de representar riscos à privacidade dos dados se não fosse usada com responsabilidade”. Ele acrescentou: “Não é preciso muita imaginação para ver o potencial de uma empresa prejudicar rapidamente um relacionamento suado com os clientes por meio do uso inadequado de IA generativa”.

Referindo-se ao processo de treinamento LLM, Almond disse que a lei de proteção de dados ainda se aplica quando as informações pessoais processadas vêm de fontes acessíveis ao público.

Uma lista de verificação publicada pela ICO na segunda-feira afirmou que, de acordo com o Regulamento Geral de Proteção de Dados do Reino Unido (GDPR), deve haver uma base legal para o processamento de dados pessoais, como um indivíduo dando seu “consentimento claro” para que seus dados sejam usados. Havia também outras alternativas que não exigiam consentimento, como ter um “interesse legítimo”, dizia a lista de verificação.

Acrescentou que as empresas tiveram que realizar uma avaliação do impacto da proteção de dados e mitigar os riscos de segurança, como vazamentos de dados pessoais e os chamados ataques de inferência de associação, por meio dos quais atores desonestos tentam identificar se um determinado indivíduo foi usado nos dados de treinamento para um LLM.

O órgão italiano de proteção de dados anunciou uma proibição temporária do ChatGPT na sexta-feira, citando um vazamento de dados no mês passado e preocupações sobre o uso de dados pessoais no sistema que sustenta o chatbot. O órgão de vigilância disse que parecia não haver “nenhuma base legal que sustentasse a coleta massiva e o processamento de dados pessoais para ‘treinar’ os algoritmos nos quais a plataforma se baseava”.

pule a promoção do boletim informativo

Em resposta à proibição italiana, Sam Altman, executivo-chefe da OpenAI, desenvolvedora do ChatGPT, disse: “Achamos que estamos seguindo todas as leis de privacidade”. Mas a empresa se recusou a compartilhar qualquer informação sobre quais dados foram usados ​​para treinar o GPT-4, a versão mais recente da tecnologia subjacente que alimenta o ChatGPT.

A versão anterior, GPT-3, foi treinada em 300 bilhões de palavras extraídas da Internet pública, bem como o conteúdo de milhões de e-books e toda a Wikipedia em inglês.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo