.
ChatGPT parece ter uma ‘maneira de cabeceira’ melhor do que alguns médicos – pelo menos quando seus conselhos escritos são avaliados quanto à qualidade e empatia, mostrou um estudo.
As descobertas destacam o potencial dos assistentes de IA para desempenhar um papel na medicina, de acordo com os autores do trabalho, que sugerem que esses agentes podem ajudar a redigir as comunicações dos médicos com os pacientes. “As oportunidades para melhorar a saúde com IA são enormes”, disse o Dr. John Ayers, da Universidade da Califórnia em San Diego.
No entanto, outros observaram que as descobertas não significam que o ChatGPT é realmente um médico melhor e alertaram contra a delegação de responsabilidade clínica, uma vez que o chatbot tende a produzir “fatos” que não são verdadeiros.
O estudo, publicado na revista JAMA Internal Medicine, usou dados do fórum AskDocs do Reddit, no qual os membros podem postar perguntas médicas que são respondidas por profissionais de saúde verificados. A equipe fez uma amostragem aleatória de 195 trocas de AskDocs, onde um médico verificado respondeu a uma pergunta pública. As perguntas originais foram feitas ao modelo de linguagem AI, ChatGPT, que foi solicitado a responder. Um painel de três profissionais de saúde licenciados, que não sabia se a resposta veio de um médico humano ou do ChatGPT, avaliou as respostas quanto à qualidade e empatia.
No geral, o painel preferiu as respostas do ChatGPT àquelas dadas por um ser humano em 79% das vezes. As respostas do ChatGPT também foram classificadas como de boa ou muito boa qualidade em 79% das vezes, em comparação com 22% das respostas dos médicos, e 45% das respostas do ChatGPT foram classificadas como empáticas ou muito empáticas, em comparação com apenas 5% das respostas dos médicos.
Christopher Longhurst, da UC San Diego Health, disse: “Esses resultados sugerem que ferramentas como o ChatGPT podem redigir com eficiência conselhos médicos personalizados e de alta qualidade para revisão por médicos, e estamos iniciando esse processo na UCSD Health”.
O professor James Davenport, da Universidade de Bath, que não esteve envolvido na pesquisa, disse: “O artigo não diz que o ChatGPT pode substituir os médicos, mas, legitimamente, pede mais pesquisas sobre se e como o ChatGPT pode ajudar os médicos. na geração de respostas.”
Alguns notaram que, dado que o ChatGPT foi especificamente otimizado para ser agradável, não foi surpreendente que ele escrevesse um texto que parecesse empático. Também tendia a dar respostas mais longas e tagarelas do que os médicos humanos, o que poderia ter desempenhado um papel em suas classificações mais altas.
Outros advertiram contra confiar em modelos de linguagem para informações factuais devido à sua tendência de gerar “fatos” inventados.
após a promoção do boletim informativo
O professor Anthony Cohn, da Universidade de Leeds, disse que usar modelos de linguagem como uma ferramenta para redigir respostas é um “caso de uso razoável para adoção antecipada”, mas que mesmo em uma função de apoio eles devem ser usados com cuidado. “Os humanos demonstraram confiar excessivamente nas respostas das máquinas, principalmente quando elas geralmente estão certas, e um humano pode nem sempre estar suficientemente vigilante para verificar adequadamente a resposta de um chatbot”, disse ele. “Isso precisaria de proteção, talvez usando respostas erradas sintéticas aleatórias para testar a vigilância.”
.