Ciência e Tecnologia

Advogado enfrenta punição depois que ChatGPT deu a ele casos falsos para citar em um documento enviado ao tribunal

.

Um dos problemas com os chatbots de conversação AI nesta fase é que eles tendem a ter alucinações. Em outras palavras, eles inventam informações para atender à solicitação do usuário. ChatGPT é um modelo de linguagem projetado para dar ao usuário uma resposta a uma pergunta e, ao fazê-lo, o AI chatbot apresentará informações para preencher quaisquer lacunas, mesmo que o que surja não seja verdade.

O jornal New York Times (através da Mashable) relatou sobre um advogado chamado Steven Schwartz da Levidow, Levidow & Oberman, que trabalha como advogado há 30 anos. Mas, graças ao ChatGPT, Schwartz pode encontrar-se à procura de uma nova profissão. Veja bem, Schwartz estava representando um cliente chamado Roberto Mata, que estava processando a companhia aérea colombiana Avianca depois que seu joelho foi ferido por um carrinho de serviço que o atingiu durante um voo.

A decisão de Schwartz de usar o ChatGPT pode custar-lhe 30 anos de carreira jurídica

A Avianca tentou fazer com que um juiz arquivasse o caso e os advogados de Mata – incluindo Schwartz – apresentaram uma petição contendo casos semelhantes que foram ouvidos no tribunal na tentativa de provar ao juiz que o caso não deveria ser arquivado. Mas é aqui que ChatGPT e Schwartz estragaram tudo. Schwartz entrou com o caso quando ele chegou ao tribunal estadual e forneceu a pesquisa legal quando foi transferido para o Tribunal Federal em Manhattan.

Procurando aprimorar seu processo, Schwartz recorreu ao ChatGPT para ajudá-lo a encontrar casos semelhantes que chegaram ao tribunal. ChatGPT produziu uma lista desses casos: Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines e Miller v. United Airlines.” Isso soa como uma lista decente de casos para citar ao juiz. Havia apenas um pequenino problema; nenhum desses casos era real! Eles foram todos inventados pelo ChatGPT.

O advogado nunca considerou que o chatbot AI poderia lhe dar informações falsas

A equipe jurídica da Avianca e o juiz rapidamente perceberam que não conseguiam encontrar nenhum dos casos citados no processo de Schwartz. Em uma declaração que apresentou ao tribunal, Schwartz incluiu uma captura de tela de sua interação com o ChatGPT e disse que, no que diz respeito ao chatbot de IA conversacional, ele “não sabia da possibilidade de que seu conteúdo pudesse ser falso”. O juiz agendou uma audiência para o próximo mês para “discutir possíveis sanções” para Schwartz.

Que isso seja um aviso para qualquer um que planeja que a IA faça parte de seu trabalho por eles. Você pode pensar que está economizando tempo, mas pode acabar tendo mais problemas se substituir seu próprio trabalho duro pelos resultados de um chatbot de IA. Eu nunca gostaria que meus artigos fossem escritos por IA e não apenas você está se machucando usando IA, mas também mentindo para o seu público, reivindicando a autoria de algo que você não escreveu ou porque possivelmente está fornecendo ao seu público -up informações.

Não importa se você é um estudante planejando usar um chatbot de IA para ajudá-lo com um artigo que precisa escrever ou um advogado procurando citar casos. Os chatbots de IA podem ter alucinações e fornecer informações falsas. Isso não quer dizer que eles não possam ser úteis e possam apontar você na direção certa. Mas uma vez feito o apontamento, cabe a você certificar-se de que as informações que está obtendo são legítimas.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo