Estudos/Pesquisa

Como a IA usou raios X do joelho para prever com precisão os hábitos de consumo de cerveja e de feijão e por que isso é preocupante

.

E se as radiografias do joelho pudessem revelar suas preferências alimentares? Um estudo recente demonstra que inteligência artificial Os modelos (IA) podem aparentemente deduzir se alguém bebe cerveja ou evita feijão frito, analisando imagens de raios-X dos joelhos.

Embora pareça uma maravilha futurística, publicada recentemente em Natureza: Relatórios Científicosas descobertas levantam sérias preocupações sobre as armadilhas da “aprendizagem de atalhos” na IA médica.

“Embora a IA tenha o potencial de transformar imagens médicas, devemos ser cautelosos”, disse o principal autor do estudo e cirurgião ortopédico do Dartmouth Hitchcock Medical Center (DHMC), Dr. declaração. “Esses modelos podem ver padrões que os humanos não conseguem, mas nem todos os padrões que eles identificam são significativos ou confiáveis. É crucial reconhecer estes riscos para evitar conclusões enganosas e garantir a integridade científica.”

No campo cada vez maior da inteligência artificial, os algoritmos de aprendizado de máquina estão lidando com problemas cada vez mais complexos.

A IA está a revolucionar os cuidados de saúde, desde o diagnóstico de doenças raras até à personalização de tratamentos. No entanto, um estudo inovador liderado por investigadores do Dartmouth-Hitchcock Medical Center e da Geisel School of Medicine em Dartmouth revela um fenómeno perturbador: os modelos de IA podem detectar factores aparentemente não relacionados, como hábitos alimentares, a partir de imagens médicas.

Esta capacidade, embora intrigante, pode ser um sinal de “atalhos” algorítmicos, uma tendência da IA ​​de confiar em padrões irrelevantes mas detectáveis ​​nos dados.

Usando o extenso conjunto de dados da Osteoarthritis Initiative (OAI), que inclui mais de 25.000 radiografias de joelho, a equipe de pesquisa treinou redes neurais convolucionais (CNNs) para prever dois resultados implausíveis – se uma pessoa bebe cerveja ou evita feijão frito.

Surpreendentemente, os modelos alcançaram precisão moderada, com uma área sob a curva (AUC) de 0,73 para consumo de cerveja e 0,63 para evitar feijão frito.

Estes resultados não indicam uma verdade oculta sobre as preferências alimentares codificadas na anatomia do joelho. Em vez disso, expõem como os modelos de IA exploram variáveis ​​confusas – correlações ocultas em dados que pouco têm a ver com a tarefa de previsão pretendida.

A aprendizagem por atalho ocorre quando os modelos de IA identificam padrões que fornecem respostas rápidas em vez de insights significativos. Neste estudo, os atalhos incluíram diferenças sutis ligadas a locais clínicos, fabricantes de máquinas de raios X e protocolos de imagem.

Por exemplo, mapas de saliência usados ​​para visualizar a tomada de decisões do modelo mostraram que as previsões dependiam de artefatos de imagem, como marcadores de lateralidade e seções ocultadas para indicadores de saúde do paciente.

As implicações são profundas. Embora as CNNs possam descobrir informações não óbvias em imagens médicas, também podem descobrir correlações enganosas, comprometendo a validade dos resultados clínicos.

Este fenômeno não se limita às previsões dietéticas. Estudos anteriores mostraram que a IA pode deduzir corrida pacienteidade e gênero de radiografias de tórax e outras imagens médicas – muitas vezes com uma precisão surpreendente.

Estas capacidades realçam a natureza dupla da IA: a sua capacidade de detectar padrões invisíveis aos humanos e a sua susceptibilidade a interpretações erradas.

Por exemplo, o estudo descobriu que as CNNs treinadas para prever preferências alimentares também retinham conhecimentos úteis para identificar a demografia dos pacientes. Quando refeitos, os modelos poderiam prever gênero, raça e local clínico com alta precisão, ressaltando como variáveis ​​latentes entrelaçadas podem distorcer as previsões.

“Isso vai além do preconceito proveniente de pistas de raça ou gênero”, explicou Brandon G. Hill, cientista de aprendizado de máquina do DHMC e coautor do estudo. “Descobrimos que o algoritmo poderia até aprender a prever o ano em que uma radiografia foi tirada.”

“É pernicioso; quando você o impede de aprender um desses elementos, ele aprenderá outro que ignorou anteriormente. Este perigo pode levar a algumas afirmações realmente duvidosas, e os pesquisadores precisam estar cientes de quão rapidamente isso acontece quando se utiliza esta técnica.”

As descobertas sublinham a necessidade de cautela na interpretação dos resultados da IA ​​na medicina. Na pressa de aproveitar o potencial da IA, os investigadores e os médicos devem garantir que os modelos não capturam apenas padrões superficiais.

A aprendizagem por atalhos pode levar a conclusões erradas, minando a confiança em diagnósticos e tratamentos baseados em IA. Além disso, o estudo desafia a noção de que o pré-processamento ou normalização dos dados é suficiente para mitigar preconceitos.

Apesar dos esforços para padronizar as imagens, os modelos ainda exploravam variáveis ​​latentes para fazer previsões. Esta persistência de preconceitos realça a dificuldade de abordar a aprendizagem por atalhos de forma abrangente.

À medida que a IA se torna mais integrada nos cuidados de saúde, é fundamental compreender as suas limitações. Os modelos treinados em imagens médicas devem passar por uma avaliação rigorosa para garantir que aprendam padrões significativos, não atalhos.

Técnicas como o mapeamento de saliência devem ser usadas para compreender o comportamento do modelo e identificar potenciais fontes de viés. As métricas de precisão por si só são insuficientes. Os pesquisadores devem explorar se as previsões de um modelo estão alinhadas com os princípios médicos conhecidos.

Além disso, os organismos reguladores poderão ter de estabelecer diretrizes para avaliar modelos de IA nos cuidados de saúde, concentrando-se na mitigação dos riscos associados à aprendizagem por atalhos.

Os autores do estudo defendem uma maior colaboração interdisciplinar para enfrentar esses desafios. Ao combinar a experiência de cientistas de dados, médicos e especialistas em ética, a comunidade médica pode desenvolver sistemas de IA robustos que cumpram o que prometem sem comprometer a fiabilidade. Esta abordagem multidisciplinar é essencial para abordar a natureza dual da IA ​​na medicina.

Embora a sua capacidade de descobrir padrões anteriormente invisíveis em imagens médicas seja transformadora, também apresenta riscos quando esses padrões refletem correlações irrelevantes, enganosas ou tendenciosas.

Em última análise, a ideia de uma radiografia do joelho revelando hábitos alimentares pode ser divertida, mas também serve como um lembrete preocupante das limitações da IA.

À medida que os investigadores ultrapassam os limites do que a IA pode alcançar, é necessário ter cuidado para evitar os perigos da aprendizagem por atalhos, a fim de garantir a integridade e a precisão das informações baseadas na IA.

“Parte do problema é o nosso próprio preconceito”, explicou Hill. “É incrivelmente fácil cair na armadilha de presumir que o modelo ‘vê’ da mesma forma que nós. No final das contas, isso não acontece.”

“É quase como lidar com uma inteligência alienígena. Você quer dizer que a modelo está ‘trapaceando’, mas isso antropomorfiza a tecnologia. Aprendeu uma maneira de resolver a tarefa que lhe foi confiada, mas não necessariamente como uma pessoa o faria. Não tem lógica ou raciocínio como normalmente o entendemos.”

Tim McMillan é um executivo aposentado da lei, repórter investigativo e cofundador do The Debrief. Sua escrita normalmente se concentra em defesa, segurança nacional, comunidade de inteligência e tópicos relacionados à psicologia. Você pode seguir Tim no Twitter: @LtTimMcMillan. Tim pode ser contatado por e-mail: tim@thedebrief.org ou através de e-mail criptografado: TenTimMcMillan@protonmail.com

.

Com Informações

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo