News

Google cria IA com o mesmo nível de precisão e viés dos médicos | Notícias de ciência e tecnologia

.

A inteligência artificial produz desinformação quando solicitada a responder a perguntas médicas, mas há espaço para que ela seja ajustada para ajudar os médicos, descobriu um novo estudo.

Pesquisadores em Google testou o desempenho de um grande modelo de linguagem, semelhante ao que alimenta ChatGPTem suas respostas a pesquisas de múltipla escolha e perguntas médicas comumente feitas.

Eles descobriram que o modelo incorporava vieses sobre os pacientes que poderiam exacerbar as disparidades de saúde e produzir respostas imprecisas para questões médicas.

No entanto, uma versão do modelo desenvolvido pelo Google para se especializar em medicina eliminou alguns desses efeitos negativos e registrou um nível de precisão e viés mais próximo de um grupo de médicos monitorados.

Os pesquisadores acreditam que inteligência artificial poderia ser usado para expandir a capacidade dentro da medicina, apoiando os médicos a tomar decisões e acessar informações mais rapidamente, mas é necessário mais desenvolvimento antes que possam ser usados ​​de forma eficaz.

Use o navegador Chrome para um player de vídeo mais acessível

Como a Strong The One criou um repórter de IA

Um painel de médicos julgou que apenas 61,9% das respostas fornecidas pelo modelo não especializado estavam de acordo com o consenso científico, em comparação com 92,6% das respostas produzidas pelo modelo focado em medicamentos.

Este último resultado está de acordo com os 92,9% de respostas relatadas pelos clínicos.

O modelo não especializado foi muito mais propenso a produzir respostas que foram classificadas como potencialmente levando a resultados prejudiciais em 29,7% em comparação com 5,8% para o modelo especializado e 6,5% para respostas geradas por médicos.

Consulte Mais informação
China corre o risco de ficar ainda mais atrás dos EUA na corrida da IA ​​com regulamentação ‘pesada’
Tony Blair: Impacto da IA ​​no mesmo nível da Revolução Industrial

Grandes modelos de linguagem são normalmente treinados em textos da internet, livros, artigos, sites e outras fontes para desenvolver uma ampla compreensão da linguagem humana.

James Davenport, professor de tecnologia da informação na Universidade de Bath, disse que o “elefante na sala” é a diferença entre responder a perguntas médicas e praticar medicina.

Clique para assinar o Strong The One Daily onde quer que você obtenha seus podcasts

“Exercer medicina não consiste em responder a questões médicas – se fosse puramente sobre questões médicas, não precisaríamos de hospitais-escola e médicos não precisariam de anos de treinamento após seus cursos acadêmicos”, disse ele.

Anthony Cohn, professor de raciocínio automatizado da Universidade de Leeds, disse que sempre haverá o risco de que os modelos produzam informações falsas devido à sua natureza estatística.

Use o navegador Chrome para um player de vídeo mais acessível

Programa especial: AI Future

“Por isso [large language models] devem ser sempre considerados como assistentes e não como tomadores de decisões finais, especialmente em áreas críticas como a medicina; na verdade, considerações éticas tornam isso especialmente verdadeiro na medicina, onde também a questão da responsabilidade legal está sempre presente”, disse ele.

O professor Cohn acrescentou: “Outra questão é que a melhor prática médica está em constante mudança e a questão de como [large language models] podem ser adaptados para levar em conta esses novos conhecimentos continua sendo um problema desafiador, especialmente quando eles exigem uma quantidade tão grande de tempo e dinheiro para treinar.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo