.
Um dos problemas com os chatbots de conversação AI nesta fase é que eles tendem a ter alucinações. Em outras palavras, eles inventam informações para atender à solicitação do usuário. ChatGPT é um modelo de linguagem projetado para dar ao usuário uma resposta a uma pergunta e, ao fazê-lo, o AI chatbot apresentará informações para preencher quaisquer lacunas, mesmo que o que surja não seja verdade.
A decisão de Schwartz de usar o ChatGPT pode custar-lhe 30 anos de carreira jurídica
Um advogado usou o ChatGPT para fazer “pesquisa jurídica” e citou vários casos inexistentes em um processo, e agora está com muitos problemas com o juiz pic.twitter.com/AJSE7Ts7W7
—Daniel Feldman (@d_feldman) 27 de maio de 2023
Procurando aprimorar seu processo, Schwartz recorreu ao ChatGPT para ajudá-lo a encontrar casos semelhantes que chegaram ao tribunal. ChatGPT produziu uma lista desses casos: Varghese v. China Southern Airlines, Shaboon v. Egyptair, Petersen v. Iran Air, Martinez v. Delta Airlines, Estate of Durden v. KLM Royal Dutch Airlines e Miller v. United Airlines.” Isso soa como uma lista decente de casos para citar ao juiz. Havia apenas um pequenino problema; nenhum desses casos era real! Eles foram todos inventados pelo ChatGPT.
O advogado nunca considerou que o chatbot AI poderia lhe dar informações falsas
A equipe jurídica da Avianca e o juiz rapidamente perceberam que não conseguiam encontrar nenhum dos casos citados no processo de Schwartz. Em uma declaração que apresentou ao tribunal, Schwartz incluiu uma captura de tela de sua interação com o ChatGPT e disse que, no que diz respeito ao chatbot de IA conversacional, ele “não sabia da possibilidade de que seu conteúdo pudesse ser falso”. O juiz agendou uma audiência para o próximo mês para “discutir possíveis sanções” para Schwartz.
Que isso seja um aviso para qualquer um que planeja que a IA faça parte de seu trabalho por eles. Você pode pensar que está economizando tempo, mas pode acabar tendo mais problemas se substituir seu próprio trabalho duro pelos resultados de um chatbot de IA. Eu nunca gostaria que meus artigos fossem escritos por IA e não apenas você está se machucando usando IA, mas também mentindo para o seu público, reivindicando a autoria de algo que você não escreveu ou porque possivelmente está fornecendo ao seu público -up informações.
Não importa se você é um estudante planejando usar um chatbot de IA para ajudá-lo com um artigo que precisa escrever ou um advogado procurando citar casos. Os chatbots de IA podem ter alucinações e fornecer informações falsas. Isso não quer dizer que eles não possam ser úteis e possam apontar você na direção certa. Mas uma vez feito o apontamento, cabe a você certificar-se de que as informações que está obtendo são legítimas.
.