.
O criador do ChatGPT está sob investigação do principal órgão fiscalizador da concorrência dos Estados Unidos para saber se violou a lei de proteção ao consumidor ao prejudicar a reputação das pessoas com suas respostas e ao fazer uso indevido de dados pessoais.
A ação contra a OpenAI, com sede em San Francisco, marca a mais forte ameaça regulatória até agora para uma empresa que provocou o frenesi em inteligência artificial generativa, cativando consumidores e empresas enquanto levantava preocupações sobre seus riscos potenciais.
A Federal Trade Commission (FTC) enviou uma demanda de 20 páginas por registros sobre como a OpenAI aborda os riscos relacionados aos seus modelos de IA. A agência está investigando se a empresa se envolveu em práticas injustas ou enganosas que resultaram em “danos à reputação” dos consumidores.
Uma pergunta está relacionada às etapas que a OpenAI tomou para abordar o potencial de seus produtos de “gerar declarações sobre indivíduos reais que são falsas, enganosas ou depreciativas”. Em um exemplo notório, o ChatGPT acusou falsamente um professor de direito dos EUA de assédio sexual e citou um artigo inexistente do Washington Post no processo.
Operando de maneira semelhante ao texto preditivo, os chatbots são baseados em modelos que preveem a palavra ou frase mais provável após o prompt do usuário. Isso pode resultar em erros factuais, mas a natureza plausível e aparentemente humana das respostas pode induzir os usuários a pensar que uma resposta é 100% correta. Os modelos são treinados em grandes quantidades de dados retirados da internet.
A FTC também pediu à OpenAI que divulgasse os dados usados para treinar os grandes modelos de linguagem que sustentam produtos como o ChatGPT, algo que a OpenAI se recusou a fazer até agora. A comediante americana Sarah Silverman está entre os autores que estão processando a OpenAI por alegações de que o LLM do ChatGPT foi treinado em dados que incluem seu trabalho.
A FTC exigiu saber se a OpenAI obteve os dados diretamente da internet – por meio de um processo conhecido como “scraping” – ou comprando-os de terceiros. Ele também solicita os nomes dos sites dos quais os dados foram retirados, bem como quaisquer medidas tomadas para evitar que informações pessoais sejam incluídas nos dados de treinamento.
O Washington Post foi o primeiro a relatar a investigação. A FTC não quis comentar. A OpenAI também foi contatada para comentar.
Enza Iannopollo, principal analista da empresa de pesquisa Forrester, disse que a má governança nas empresas de IA corre o risco de se tornar um “desastre” para os consumidores e para as próprias empresas, que correm o risco de investigações e multas.
“Enquanto os grandes modelos de linguagem (LLMs) permanecerem opacos e dependerem amplamente de dados extraídos para treinamento, os riscos de abusos de privacidade e danos aos indivíduos continuarão a crescer”, disse ela.
À medida que a corrida para desenvolver serviços de IA mais poderosos se acelera, cresce o escrutínio regulatório da tecnologia que pode mudar a maneira como as sociedades e as empresas operam.
Os reguladores globais pretendem aplicar as regras existentes que cobrem tudo, desde direitos autorais e privacidade de dados até duas questões principais: os dados inseridos nos modelos e o conteúdo que eles produzem. No Reino Unido, o primeiro-ministro, Rishi Sunak, convocou uma cúpula global de segurança de IA no outono, enquanto o órgão regulador da concorrência doméstica também está examinando a indústria.
Nos EUA, o líder da maioria no Senado, Chuck Schumer, pediu uma “legislação abrangente” para avançar e garantir salvaguardas para a IA e realizará uma série de fóruns ainda este ano.
A OpenAI em março também teve problemas na Itália, onde o regulador tirou o ChatGPT do ar devido a acusações de que a OpenAI violou o GDPR da UE – um amplo regime de privacidade promulgado em 2018.
O ChatGPT foi restabelecido mais tarde, depois que a empresa dos EUA concordou em instalar recursos de verificação de idade e permitir que os usuários europeus impedissem que suas informações fossem usadas para treinar o modelo de IA.
.