News

Caso do YouTube na Suprema Corte dos EUA pode ter implicações para ChatGPT e AI

.

Quando a Suprema Corte dos EUA decidir nos próximos meses se enfraquece um poderoso escudo que protege as empresas de internet, a decisão também pode ter implicações para tecnologias em rápido desenvolvimento, como chatbot de inteligência artificial ChatGPT.

Os juízes devem decidir até o final de junho se o YouTube da Alphabet pode ser processado por suas recomendações de vídeo aos usuários. Esse caso testa se uma lei dos EUA que protege as plataformas de tecnologia da responsabilidade legal pelo conteúdo postado online por seus usuários também se aplica quando as empresas usam algoritmos para direcionar recomendações aos usuários.

O que o tribunal decide sobre essas questões é relevante além das plataformas de mídia social. Sua decisão pode influenciar o debate emergente sobre se as empresas que desenvolvem chatbots de IA generativa como ChatGPT da OpenAI, uma empresa na qual a Microsoft é um grande investidor, ou Bard do Google da Alphabet devem ser protegidas de ações legais como difamação ou violações de privacidade, de acordo com a tecnologia. e especialistas jurídicos.

Isso ocorre porque os algoritmos que alimentam ferramentas de IA generativas, como o ChatGPT e seu sucessor GPT-4, operam de maneira um tanto semelhante àquelas que sugerem vídeos aos usuários do YouTube, acrescentaram os especialistas.

“O debate é realmente sobre se a organização da informação disponível online por meio de mecanismos de recomendação é tão significativa para moldar o conteúdo a ponto de se tornar responsável”, disse Cameron Kerry, pesquisador visitante do think tank Brookings Institution em Washington e especialista em IA. “Você tem os mesmos tipos de problemas em relação a um chatbot.”

Representantes da OpenAI e do Google não responderam aos pedidos de comentários.

Durante argumentos em fevereiro, os juízes da Suprema Corte expressaram incerteza sobre se deveriam enfraquecer as proteções consagradas na lei, conhecidas como Seção 230 da Lei de Decência das Comunicações de 1996. Embora o caso não esteja diretamente relacionado à IA generativa, o juiz Neil Gorsuch observou que a IA ferramentas que geram “poesia” e “polêmica” provavelmente não gozariam de tais proteções legais.

O caso é apenas uma faceta de uma conversa emergente sobre se a imunidade da Seção 230 deve se aplicar a modelos de IA treinados em dados online existentes, mas capazes de produzir trabalhos originais.

As proteções da seção 230 geralmente se aplicam a conteúdo de terceiros de usuários de uma plataforma de tecnologia e não a informações que uma empresa ajudou a desenvolver. Os tribunais ainda não avaliaram se uma resposta de um chatbot de IA seria coberta.

‘CONSEQUÊNCIAS DE SUAS PRÓPRIAS AÇÕES’

O senador democrata Ron Wyden, que ajudou a redigir essa lei enquanto estava na Câmara dos Deputados, disse que o escudo de responsabilidade não deveria se aplicar a ferramentas generativas de IA porque essas ferramentas “criam conteúdo”.

“A Seção 230 trata da proteção de usuários e sites para hospedar e organizar o discurso dos usuários. Ela não deve proteger as empresas das consequências de suas próprias ações e produtos”, disse Wyden em comunicado à Reuters.

A indústria de tecnologia pressionou para preservar a Seção 230, apesar da oposição bipartidária à imunidade. Eles disseram que ferramentas como o ChatGPT operam como mecanismos de busca, direcionando os usuários para o conteúdo existente em resposta a uma consulta.

“A IA não está realmente criando nada. Está pegando o conteúdo existente e colocando-o de uma maneira ou formato diferente”, disse Carl Szabo, vice-presidente e conselheiro geral da NetChoice, um grupo comercial da indústria de tecnologia.

Szabo disse que uma Seção 230 enfraquecida apresentaria uma tarefa impossível para os desenvolvedores de IA, ameaçando expô-los a uma enxurrada de litígios que poderiam sufocar a inovação.

Alguns especialistas prevêem que os tribunais podem adotar um meio-termo, examinando o contexto no qual o modelo de IA gerou uma resposta potencialmente prejudicial.

Nos casos em que o modelo de IA parece parafrasear as fontes existentes, o escudo ainda pode ser aplicado. Mas chatbots como o ChatGPT são conhecidos por criar respostas fictícias que parecem não ter nenhuma conexão com informações encontradas em outros lugares online, uma situação que especialistas disseram que provavelmente não seria protegida.

Hany Farid, tecnólogo e professor da Universidade da Califórnia, em Berkeley, disse que é muito difícil argumentar que os desenvolvedores de IA devem ser imunes a processos judiciais sobre modelos que eles “programaram, treinaram e implantaram”.

“Quando as empresas são responsabilizadas em litígios civis por danos causados ​​pelos produtos que produzem, elas produzem produtos mais seguros”, disse Farid. “E quando não são responsabilizados, produzem produtos menos seguros.”

O caso que está sendo decidido pela Suprema Corte envolve um recurso da família de Nohemi Gonzalez, uma estudante universitária de 23 anos da Califórnia que foi morta a tiros em um tumulto de 2015 por militantes islâmicos em Paris, da demissão de um tribunal inferior da família de sua família. processo contra o YouTube.

O processo acusou o Google de fornecer “suporte material” ao terrorismo e alegou que o YouTube, por meio dos algoritmos da plataforma de compartilhamento de vídeos, recomendou ilegalmente vídeos do grupo militante Estado Islâmico, que reivindicou a responsabilidade pelos ataques de Paris, a certos usuários.

© Thomson Reuters 2023


Os links de afiliados podem ser gerados automaticamente – consulte nossa declaração de ética para obter detalhes.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo