.
A inteligência artificial produz desinformação quando solicitada a responder a perguntas médicas, mas há espaço para que ela seja ajustada para ajudar os médicos, descobriu um novo estudo.
Pesquisadores em Google testou o desempenho de um grande modelo de linguagem, semelhante ao que alimenta ChatGPTem suas respostas a pesquisas de múltipla escolha e perguntas médicas comumente feitas.
Eles descobriram que o modelo incorporava vieses sobre os pacientes que poderiam exacerbar as disparidades de saúde e produzir respostas imprecisas para questões médicas.
No entanto, uma versão do modelo desenvolvido pelo Google para se especializar em medicina eliminou alguns desses efeitos negativos e registrou um nível de precisão e viés mais próximo de um grupo de médicos monitorados.
Os pesquisadores acreditam que inteligência artificial poderia ser usado para expandir a capacidade dentro da medicina, apoiando os médicos a tomar decisões e acessar informações mais rapidamente, mas é necessário mais desenvolvimento antes que possam ser usados de forma eficaz.
Um painel de médicos julgou que apenas 61,9% das respostas fornecidas pelo modelo não especializado estavam de acordo com o consenso científico, em comparação com 92,6% das respostas produzidas pelo modelo focado em medicamentos.
Este último resultado está de acordo com os 92,9% de respostas relatadas pelos clínicos.
O modelo não especializado foi muito mais propenso a produzir respostas que foram classificadas como potencialmente levando a resultados prejudiciais em 29,7% em comparação com 5,8% para o modelo especializado e 6,5% para respostas geradas por médicos.
Consulte Mais informação
China corre o risco de ficar ainda mais atrás dos EUA na corrida da IA com regulamentação ‘pesada’
Tony Blair: Impacto da IA no mesmo nível da Revolução Industrial
Grandes modelos de linguagem são normalmente treinados em textos da internet, livros, artigos, sites e outras fontes para desenvolver uma ampla compreensão da linguagem humana.
James Davenport, professor de tecnologia da informação na Universidade de Bath, disse que o “elefante na sala” é a diferença entre responder a perguntas médicas e praticar medicina.
Clique para assinar o Strong The One Daily onde quer que você obtenha seus podcasts
“Exercer medicina não consiste em responder a questões médicas – se fosse puramente sobre questões médicas, não precisaríamos de hospitais-escola e médicos não precisariam de anos de treinamento após seus cursos acadêmicos”, disse ele.
Anthony Cohn, professor de raciocínio automatizado da Universidade de Leeds, disse que sempre haverá o risco de que os modelos produzam informações falsas devido à sua natureza estatística.
“Por isso [large language models] devem ser sempre considerados como assistentes e não como tomadores de decisões finais, especialmente em áreas críticas como a medicina; na verdade, considerações éticas tornam isso especialmente verdadeiro na medicina, onde também a questão da responsabilidade legal está sempre presente”, disse ele.
O professor Cohn acrescentou: “Outra questão é que a melhor prática médica está em constante mudança e a questão de como [large language models] podem ser adaptados para levar em conta esses novos conhecimentos continua sendo um problema desafiador, especialmente quando eles exigem uma quantidade tão grande de tempo e dinheiro para treinar.”
.