technology

AI tem melhor ‘maneira de cabeceira’ do que alguns médicos, segundo estudo | Inteligência Artificial (IA)

.

ChatGPT parece ter uma ‘maneira de cabeceira’ melhor do que alguns médicos – pelo menos quando seus conselhos escritos são avaliados quanto à qualidade e empatia, mostrou um estudo.

As descobertas destacam o potencial dos assistentes de IA para desempenhar um papel na medicina, de acordo com os autores do trabalho, que sugerem que esses agentes podem ajudar a redigir as comunicações dos médicos com os pacientes. “As oportunidades para melhorar a saúde com IA são enormes”, disse o Dr. John Ayers, da Universidade da Califórnia em San Diego.

No entanto, outros observaram que as descobertas não significam que o ChatGPT é realmente um médico melhor e alertaram contra a delegação de responsabilidade clínica, uma vez que o chatbot tende a produzir “fatos” que não são verdadeiros.

O estudo, publicado na revista JAMA Internal Medicine, usou dados do fórum AskDocs do Reddit, no qual os membros podem postar perguntas médicas que são respondidas por profissionais de saúde verificados. A equipe fez uma amostragem aleatória de 195 trocas de AskDocs, onde um médico verificado respondeu a uma pergunta pública. As perguntas originais foram feitas ao modelo de linguagem AI, ChatGPT, que foi solicitado a responder. Um painel de três profissionais de saúde licenciados, que não sabia se a resposta veio de um médico humano ou do ChatGPT, avaliou as respostas quanto à qualidade e empatia.

No geral, o painel preferiu as respostas do ChatGPT àquelas dadas por um ser humano em 79% das vezes. As respostas do ChatGPT também foram classificadas como de boa ou muito boa qualidade em 79% das vezes, em comparação com 22% das respostas dos médicos, e 45% das respostas do ChatGPT foram classificadas como empáticas ou muito empáticas, em comparação com apenas 5% das respostas dos médicos.

Christopher Longhurst, da UC San Diego Health, disse: “Esses resultados sugerem que ferramentas como o ChatGPT podem redigir com eficiência conselhos médicos personalizados e de alta qualidade para revisão por médicos, e estamos iniciando esse processo na UCSD Health”.

O professor James Davenport, da Universidade de Bath, que não esteve envolvido na pesquisa, disse: “O artigo não diz que o ChatGPT pode substituir os médicos, mas, legitimamente, pede mais pesquisas sobre se e como o ChatGPT pode ajudar os médicos. na geração de respostas.”

Alguns notaram que, dado que o ChatGPT foi especificamente otimizado para ser agradável, não foi surpreendente que ele escrevesse um texto que parecesse empático. Também tendia a dar respostas mais longas e tagarelas do que os médicos humanos, o que poderia ter desempenhado um papel em suas classificações mais altas.

Outros advertiram contra confiar em modelos de linguagem para informações factuais devido à sua tendência de gerar “fatos” inventados.

pule a promoção do boletim informativo

O professor Anthony Cohn, da Universidade de Leeds, disse que usar modelos de linguagem como uma ferramenta para redigir respostas é um “caso de uso razoável para adoção antecipada”, mas que mesmo em uma função de apoio eles devem ser usados ​​com cuidado. “Os humanos demonstraram confiar excessivamente nas respostas das máquinas, principalmente quando elas geralmente estão certas, e um humano pode nem sempre estar suficientemente vigilante para verificar adequadamente a resposta de um chatbot”, disse ele. “Isso precisaria de proteção, talvez usando respostas erradas sintéticas aleatórias para testar a vigilância.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo