Ciência e Tecnologia

O uso dos dados das pessoas por inteligência artificial é legal?

.

Atualmente, não existe um método amplamente aceito para os indivíduos solicitarem a remoção de seus dados de um modelo de aprendizado de máquina depois de usado para treinar o modelo.

No mundo da IA ​​e do aprendizado de máquina, a repentina e massiva popularidade dos modelos de aprendizado de idiomas é um assunto importante. Essas ferramentas – a mais popular atualmente é provavelmente o ChatGPT-3 – são modelos de linguagem que podem responder a perguntas específicas e até mesmo gerar código. Eles podem ser usados ​​em uma variedade de aplicações, como chatbots, tradução de idiomas e resumo de texto. No entanto, como acontece com qualquer tecnologia, também existem possíveis desvantagens e preocupações.

Privacidade e ChatGPT

Uma das principais preocupações com esses modelos é a privacidade, e pode ser difícil para as pessoas saberem se seus dados foram usados ​​para treinar um modelo de aprendizado de máquina. O GPT-3, por exemplo, é um grande modelo de linguagem que foi treinado em uma grande quantidade de dados da Internet, incluindo sites pessoais e conteúdo de mídia social. Isso gerou preocupações de que o modelo possa usar os dados das pessoas sem permissão e que seja difícil controlar ou excluir os dados usados ​​para treinar o modelo.

Outra preocupação é a questão do “direito ao esquecimento”. À medida que o uso de modelos GPT e outros modelos de aprendizado de máquina se torna mais difundido, as pessoas podem querer ter a capacidade de apagar seus dados do modelo.

“As pessoas estão furiosas porque os dados estão sendo usados ​​sem permissão”, diz Cristina Schajris pesquisadora de IA da Strong The One. “Às vezes, algumas pessoas excluíram os dados, mas como o modelo de idioma já os usou, os dados ficam lá para sempre. Eles não sabem como deletar os dados.”

Atualmente, não existe um método amplamente aceito para os indivíduos solicitarem a remoção de seus dados de um modelo de aprendizado de máquina depois de usado para treinar o modelo. Alguns pesquisadores e empresas estão trabalhando em métodos para permitir a remoção ou “esquecimento” de pontos de dados específicos ou informações do usuário, mas esses métodos ainda estão nos estágios iniciais de desenvolvimento e ainda não está claro se serão viáveis ​​ou eficazes. Além disso, há desafios técnicos para remover dados de modelos de aprendizado de máquina, pois os dados podem ter sido usados ​​para treinar o modelo e removê-los pode fazer com que o modelo perca sua precisão.

O ChatGPT é legal?

A legalidade do uso de dados pessoais para treinar modelos de aprendizado de máquina, como o GPT-3, pode variar dependendo das leis e regulamentos específicos de um determinado país ou região. Na União Europeia, por exemplo, o Regulamento Geral de Proteção de Dados (GDPR) regula o uso de dados pessoais e exige que os dados sejam coletados e usados ​​apenas para fins específicos e legais.

“O GDPR envolve muito a restrição de propósito”, diz Cristina. “Portanto, você deve usar os dados para o propósito para o qual os coletou. Se você quiser usá-lo para outra coisa, precisará obter permissão. Mas os modelos de linguagem são o oposto disso – os dados podem ser usados ​​para qualquer finalidade. Como o GDPR pode impor essa restrição?”

Sob o GDPR, as organizações são obrigadas a obter consentimento explícito de indivíduos antes de coletar e usar seus dados pessoais. Existe fundamento legal para o tratamento de dados pessoais para investigação científica e histórica, mas o responsável pelo tratamento deve respeitar os princípios e direitos do RGPD, tais como o direito a ser informado, o direito de acesso, o direito à retificação, o direito ao apagamento, o direito à oposição e direito à portabilidade de dados. Parece, então, que os modelos de aprendizado de idiomas não estão em conformidade com o GDPR, o que pode se tornar uma grande barreira para o crescimento no futuro.

Nos Estados Unidos, não há nenhuma lei federal que regule especificamente o uso de dados pessoais para treinar modelos de aprendizado de máquina. No entanto, as organizações geralmente são obrigadas a cumprir leis como a Lei de Portabilidade e Responsabilidade de Seguro Saúde (HIPAA) e a Lei de Proteção à Privacidade Online das Crianças (COPPA) se coletarem e usarem dados pessoais de indivíduos em determinadas categorias confidenciais. E na Califórnia – onde está localizada a maioria das grandes empresas de tecnologia – as empresas são obrigadas a seguir a Lei de Privacidade do Consumidor da Califórnia (CCPA), que tem requisitos de privacidade semelhantes ao GDPR.

Com tudo isso dito, o desenvolvimento de modelos de IA, como o GPT-3, é um campo em constante evolução. Como tal, as leis e regulamentos que envolvem o uso de dados pessoais em IA provavelmente mudarão no futuro, tornando importante manter-se atualizado sobre os últimos desenvolvimentos legais nessa área.

O ChatGPT é preciso?

Outra grande preocupação sobre os modelos GPT é a desinformação e a falta de verificação. Tem sido amplamente divulgado que muitas IAs de aprendizado de idiomas apresentam informações com confiança, mas de forma imprecisa. Essa falta de verificação de fatos pode potencialmente aumentar a disseminação de informações falsas, o que é especialmente perigoso em áreas sensíveis como notícias e política. O Google, por exemplo, planeja usar modelos GPT para atender melhor os clientes, mas ainda não está claro como eles lidarão com o elemento de verificação de fatos.

Embora os modelos GPT tenham o potencial de revolucionar a maneira como interagimos com a tecnologia e automatizamos determinadas tarefas, é importante também considerar as possíveis desvantagens e preocupações. À medida que o uso desses modelos se torna mais difundido, é crucial abordar as preocupações com a privacidade e encontrar soluções para o problema do “direito ao esquecimento”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo