technology

Perseguindo alucinações difamatórias, FTC abre investigação sobre OpenAI

.

O CEO da OpenAI, Sam Altman, senta-se à mesa e fala ao microfone enquanto testemunha em uma audiência no Senado.
Prolongar / O CEO da OpenAI, Sam Altman, testemunha sobre as regras de IA perante o Subcomitê Judiciário do Senado sobre Privacidade, Tecnologia e Lei em 16 de maio de 2023, em Washington, DC.

Getty Imagens | Win McNamee

A OpenAI, mais conhecida por seu assistente ChatGPT AI, está sob escrutínio da Federal Trade Commission (FTC) dos EUA por alegações de que violou as leis de proteção ao consumidor, potencialmente colocando dados pessoais e reputações em risco, de acordo com o The Washington Post e a Reuters.

Como parte da investigação, a FTC enviou uma solicitação de registro de 20 páginas para a OpenAI, que se concentra nas estratégias de gerenciamento de risco da empresa em torno de seus modelos de IA. A agência está investigando se a empresa se envolveu em práticas enganosas ou desleais, resultando em danos à reputação dos consumidores.

A investigação também busca entender como a OpenAI abordou o potencial de seus produtos para gerar declarações falsas, enganosas ou depreciativas sobre indivíduos reais. Na indústria de IA, essas falsas gerações às vezes são chamadas de “alucinações” ou “confabulações”.

Em particular, o The Washington Post especula que o foco da FTC em declarações enganosas ou falsas é uma resposta a incidentes recentes envolvendo o ChatGPT da OpenAI, como um caso em que supostamente forjou alegações difamatórias sobre Mark Walters, um apresentador de programa de rádio da Geórgia. O assistente de IA afirmou falsamente que Walters foi acusado de peculato e fraude relacionado à Fundação da Segunda Emenda, levando Walters a processar a OpenAI por difamação. Outro incidente envolveu o modelo de IA alegando falsamente que um advogado havia feito comentários sexualmente sugestivos em uma viagem estudantil ao Alasca, um evento que nunca ocorreu.

A investigação da FTC representa um desafio regulatório significativo para a OpenAI, que gerou entusiasmo, medo e entusiasmo na indústria de tecnologia após o lançamento do ChatGPT em novembro. Ao cativar o mundo da tecnologia com produtos alimentados por IA que muitas pessoas pensavam estar a anos ou décadas de distância, as atividades da empresa levantaram questões sobre os riscos potenciais associados aos modelos de IA que eles produzem.

À medida que a pressão da indústria por modelos de IA mais capazes se intensifica, as agências governamentais de todo o mundo analisam mais de perto o que está acontecendo nos bastidores. Diante de uma tecnologia que muda rapidamente, reguladores como a FTC estão se esforçando para aplicar as regras existentes para cobrir os modelos de IA, desde direitos autorais e privacidade de dados até questões mais específicas em torno dos dados usados ​​para treinar esses modelos e o conteúdo que eles geram.

Em junho, a Reuters informou que o líder da maioria no Senado dos EUA, Chuck Schumer (D-NY), pediu “legislação abrangente” para supervisionar o progresso da tecnologia de IA, garantindo que as salvaguardas necessárias estejam em vigor. Schumer planeja realizar uma série de fóruns sobre o assunto ainda este ano, observa a agência de notícias.

Este não é o primeiro obstáculo regulatório para o OpenAI. A empresa enfrentou uma reação negativa na Itália em março, quando os reguladores bloquearam o ChatGPT por acusações de que a OpenAI havia violado os regulamentos de privacidade GDPR da União Europeia. O serviço ChatGPT foi restabelecido depois que a OpenAI concordou em incorporar recursos de verificação de idade e fornecer aos usuários europeus a opção de impedir que seus dados sejam usados ​​para treinar o modelo de IA.

A OpenAI tem duas semanas após o recebimento da solicitação para agendar uma ligação com a FTC para discutir possíveis modificações na solicitação ou problemas de conformidade.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo