.
Pesquisadores da Universidade de Waterloo desenvolveram um novo modelo explicável de inteligência artificial (IA) para reduzir o viés e aumentar a confiança e a precisão na tomada de decisões e na organização do conhecimento geradas pelo aprendizado de máquina.
Os modelos tradicionais de aprendizado de máquina geralmente produzem resultados tendenciosos, favorecendo grupos com grandes populações ou sendo influenciados por fatores desconhecidos, e exigem muito esforço para identificar instâncias que contêm padrões e subpadrões provenientes de diferentes classes ou fontes primárias.
O campo médico é uma área em que há implicações graves para resultados tendenciosos de aprendizado de máquina. A equipe do hospital e os profissionais médicos dependem de conjuntos de dados contendo milhares de registros médicos e complexos algoritmos de computador para tomar decisões críticas sobre o atendimento ao paciente. O aprendizado de máquina é usado para classificar os dados, o que economiza tempo. No entanto, grupos específicos de pacientes com padrões sintomáticos raros podem passar despercebidos, e pacientes mal rotulados e anomalias podem afetar os resultados do diagnóstico. Esse viés inerente e o emaranhado de padrões levam a diagnósticos incorretos e resultados de saúde desiguais para grupos específicos de pacientes.
Graças a uma nova pesquisa liderada pelo Dr. Andrew Wong, um distinto professor emérito de engenharia de design de sistemas em Waterloo, um modelo inovador visa eliminar essas barreiras desvendando padrões complexos de dados para relacioná-los a causas subjacentes específicas não afetadas por anomalias e instâncias mal rotuladas. Pode aumentar a confiança e a confiabilidade na Inteligência Artificial Explicável (XAI.)
“Esta pesquisa representa uma contribuição significativa para o campo da XAI”, disse Wong. “Ao analisar uma grande quantidade de dados de ligação de proteínas da cristalografia de raios-X, minha equipe revelou as estatísticas dos padrões físico-químicos de interação de aminoácidos que foram mascarados e misturados no nível de dados devido ao emaranhado de múltiplos fatores presentes no ambiente de ligação. Essa foi a primeira vez que mostramos que estatísticas emaranhadas podem ser desemaranhadas para dar uma imagem correta do profundo conhecimento perdido no nível dos dados com evidências científicas.”
Essa revelação levou Wong e sua equipe a desenvolver o novo modelo XAI chamado Pattern Discovery and Disentanglement (PDD).
“Com o PDD, pretendemos preencher a lacuna entre a tecnologia de IA e a compreensão humana para ajudar a permitir uma tomada de decisão confiável e desbloquear um conhecimento mais profundo de fontes de dados complexas”, disse o Dr. Peiyuan Zhou, pesquisador principal da equipe de Wong.
A professora Annie Lee, coautora e colaboradora da Universidade de Toronto, especializada em Processamento de Linguagem Natural, prevê o imenso valor da contribuição do PDD para a tomada de decisões clínicas.
O modelo PDD revolucionou a descoberta de padrões. Vários estudos de caso demonstraram o PDD, demonstrando a capacidade de prever os resultados médicos dos pacientes com base em seus registros clínicos. O sistema PDD também pode descobrir padrões novos e raros em conjuntos de dados. Isso permite que pesquisadores e profissionais detectem erros de rotulagem ou anomalias no aprendizado de máquina.
O resultado mostra que os profissionais de saúde podem fazer diagnósticos mais confiáveis, apoiados por estatísticas rigorosas e padrões explicáveis para melhores recomendações de tratamento para várias doenças em diferentes estágios.
O estudo, Teoria e fundamentação da descoberta de padrão tudo-em-um interpretável e sistema de desemaranhamento, aparece na revista npj medicina digital.
A recente concessão de um NSER Idea-to-Innovation Grant de $ 125 K em PDD indica seu reconhecimento industrial. O PDD é comercializado através do Waterloo Commercialization Office.
.