Estudos/Pesquisa

IA ajuda profissionais médicos a ler EEGs confusos para salvar vidas

.

Pesquisadores da Duke University desenvolveram um modelo assistencial de aprendizado de máquina que melhora muito a capacidade dos profissionais médicos de ler os gráficos de eletroencefalografia (EEG) de pacientes em terapia intensiva.

Como as leituras de EEG são o único método para saber quando pacientes inconscientes correm o risco de sofrer uma convulsão ou de eventos semelhantes a convulsões, a ferramenta computacional pode ajudar a salvar milhares de vidas todos os anos. Os resultados aparecem online em 23 de maio no New England Journal of Medicine AI.

Os EEGs usam pequenos sensores ligados ao couro cabeludo para medir os sinais elétricos do cérebro, produzindo uma longa linha de rabiscos para cima e para baixo. Quando um paciente está tendo uma convulsão, essas linhas saltam para cima e para baixo dramaticamente, como um sismógrafo durante um terremoto – um sinal fácil de reconhecer. Mas outras anomalias clinicamente importantes, chamadas eventos semelhantes a convulsões, são muito mais difíceis de discernir.

“A atividade cerebral que estamos observando existe ao longo de um continuum, onde as convulsões estão em uma extremidade, mas ainda há muitos eventos no meio que também podem causar danos e exigir medicação”, disse o Dr. Brandon Westover, professor associado de neurologia no Massachusetts General Hospital e na Harvard Medical School. “Os padrões de EEG causados ​​por esses eventos são mais difíceis de reconhecer e categorizar com segurança, mesmo por neurologistas altamente treinados, o que nem todas as instalações médicas têm. Mas fazer isso é extremamente importante para os resultados de saúde destes pacientes”.

Para construir uma ferramenta que ajudasse a fazer essas determinações, os médicos recorreram ao laboratório de Cynthia Rudin, Earl D. McLean, Jr. Professora de Ciência da Computação e Engenharia Elétrica e de Computação na Duke. Rudin e seus colegas são especializados no desenvolvimento de algoritmos de aprendizado de máquina “interpretáveis”. Embora a maioria dos modelos de aprendizado de máquina sejam uma “caixa preta” que torna impossível para um ser humano saber como está chegando a conclusões, os modelos de aprendizado de máquina interpretáveis ​​devem essencialmente mostrar seu trabalho.

O grupo de pesquisa começou coletando amostras de EEG de mais de 2.700 pacientes e fazendo com que mais de 120 especialistas selecionassem as características relevantes nos gráficos, categorizando-as como convulsões, um dos quatro tipos de eventos semelhantes a convulsões ou “outros”. Cada tipo de evento aparece nos gráficos de EEG como certas formas ou repetições nas linhas onduladas. Mas como esses gráficos raramente têm aparência constante, os sinais reveladores podem ser interrompidos por dados incorretos ou podem se misturar para criar um gráfico confuso.

“Existe uma verdade básica, mas é difícil de ler”, disse Stark Guo, Ph.D. estudante trabalhando no laboratório de Rudin. “A ambiguidade inerente em muitos desses gráficos significou que tivemos que treinar o modelo para colocar suas decisões dentro de um continuum, em vez de caixas separadas e bem definidas”.

Quando exibido visualmente, esse continuum se parece com uma estrela do mar multicolorida nadando para longe de um predador. Cada braço de cor diferente representa um tipo de evento semelhante a uma convulsão que o EEG pode representar. Quanto mais próximo o algoritmo coloca um gráfico específico da ponta de um braço, mais seguro ele tem de sua decisão, enquanto aqueles colocados mais perto do corpo central têm menos certeza.

Além dessa classificação visual, o algoritmo também aponta os padrões nas ondas cerebrais que utilizou para fazer sua determinação e fornece três exemplos de gráficos diagnosticados profissionalmente que considera semelhantes.

“Isso permite que um profissional médico analise rapidamente as seções importantes e concorde que os padrões estão lá ou decida que o algoritmo está errado”, disse Alina Barnett, pesquisadora de pós-doutorado no laboratório Rudin. “Mesmo que não sejam altamente treinados para ler EEGs, eles podem tomar uma decisão muito mais informada”.

Colocando o algoritmo à prova, a equipe colaborativa fez com que oito profissionais médicos com experiência relevante categorizassem 100 amostras de EEG em seis categorias, uma vez com a ajuda de IA e outra sem. O desempenho de todos os participantes melhorou muito, com a precisão geral aumentando de 47% para 71%. Seu desempenho também superou aqueles que usaram um algoritmo de “caixa preta” semelhante em um estudo anterior.

“Normalmente, as pessoas pensam que os modelos de aprendizado de máquina de caixa preta são mais precisos, mas para muitas aplicações importantes, como esta, isso simplesmente não é verdade”, disse Rudin. “É muito mais fácil solucionar problemas de modelos quando eles são interpretáveis. E, neste caso, o modelo interpretável era realmente mais preciso. Ele também fornece uma visão panorâmica dos tipos de sinais elétricos anômalos que ocorrem no cérebro, o que é realmente útil para atendimento a pacientes graves”.

Este trabalho foi apoiado pela National Science Foundation (IIS-2147061, HRD-2222336, IIS-2130250, 2014431), pelos Institutos Nacionais de Saúde (R01NS102190, R01NS102574, R01NS107291, RF1AG064312, RF1NS120947, R01AG073410, R01HL161253, K23NS124656, P20GM130447) e a concessão de células-tronco DHHS LB606 Nebraska.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo