Estudos/Pesquisa

Garantir a justiça da IA ​​nos cuidados de saúde requer colaboração interdisciplinar

.

Buscar inteligência artificial (IA) justa para a saúde requer colaboração entre especialistas de todas as disciplinas, afirma uma equipe global de cientistas liderada pela Duke-NUS Medical School em uma nova perspectiva publicada em npj Medicina Digital.

Embora a IA tenha demonstrado potencial para obter informações sobre cuidados de saúde, permanecem preocupações em torno do preconceito. “Espera-se que um modelo justo tenha um desempenho igualmente bom em subgrupos como idade, sexo e raça. No entanto, as diferenças no desempenho podem ter razões clínicas subjacentes e não necessariamente indicar injustiça”, explicou a primeira autora, Sra. Liu Mingxuan, candidata a doutorado na Pesquisa Quantitativa. Programa de Biologia e Medicina (Bioestatística e Ciência de Dados de Saúde) e Centro de Medicina Quantitativa (CQM) em Duke-NUS.

“Focar na equidade – isto é, reconhecer factores como raça, género, etc., e ajustar o algoritmo de IA ou a sua aplicação para garantir que os grupos mais vulneráveis ​​recebam os cuidados de que necessitam – em vez da igualdade completa, é provavelmente uma medida mais razoável. abordagem para IA clínica”, disse o Dr. Ning Yilin, pesquisador do CQM e coautor do artigo. “As preferências e o prognóstico dos pacientes também são considerações cruciais, já que tratamento igual nem sempre significa tratamento justo. Um exemplo disso é a idade, que frequentemente influencia as decisões e os resultados do tratamento”.

O artigo destaca os principais desalinhamentos entre a pesquisa de imparcialidade em IA e as necessidades clínicas. “Existem várias métricas para medir a justiça do modelo, mas escolher as adequadas para a saúde é difícil, pois podem entrar em conflito. As compensações são muitas vezes inevitáveis”, comentou o professor associado Liu Nan, também do CQM da Duke-NUS, autor sênior e correspondente do artigo. .

Ele acrescentou: “As diferenças detectadas entre grupos são frequentemente tratadas como preconceitos a serem mitigados na pesquisa de IA. No entanto, no contexto médico, devemos discernir entre diferenças significativas e verdadeiros preconceitos que requerem correção”.

Os autores enfatizam a necessidade de avaliar quais atributos são considerados “sensíveis” para cada aplicação. Eles afirmam que envolver ativamente os médicos é vital para o desenvolvimento de modelos de IA úteis e justos.

“Variáveis ​​como raça e etnia precisam de tratamento cuidadoso, pois podem representar preconceitos sistêmicos ou diferenças biológicas”, disse o Prof Liu. “Os médicos podem fornecer contexto, determinar se as diferenças são justificadas e orientar modelos para decisões equitativas”.

No geral, os autores argumentam que a prossecução de uma IA justa para os cuidados de saúde requer a colaboração entre especialistas em IA, medicina, ética e muito mais.

“Alcançar a justiça no uso da IA ​​nos cuidados de saúde é uma questão importante, mas altamente complexa. Apesar dos extensos desenvolvimentos nas metodologias justas de IA, continua a ser um desafio traduzi-los na prática clínica real devido à natureza dos cuidados de saúde – que envolve processos biológicos, éticos e considerações sociais. Para avançar as práticas de IA para beneficiar o atendimento ao paciente, os médicos, os especialistas em IA e a indústria precisam trabalhar juntos e tomar medidas ativas para abordar a justiça na IA”, disse o co-autor Professor Associado Daniel Ting, Diretor do Escritório de IA da SingHealth e Professor Associado do Programa Clínico Acadêmico de Oftalmologia e Ciências Visuais SingHealth Duke-NUS. Ele também é consultor sênior do Singapore National Eye Centre e chefe de IA e inovação digital do Singapore Eye Research Institute (SERI).

“Este artigo destaca as complexidades de traduzir técnicas de justiça de IA em aplicações clínicas éticas. Ele representa nosso compromisso coletivo com o desenvolvimento de IA que fornece aos médicos insights confiáveis ​​para fornecer cuidados de qualidade e equitativos aprimorados pela tecnologia”, observou o co-autor Professor Associado Clínico Lionel Cheng Tim-Ee, Diretor de Dados e Digital, Diretor Clínico (AI) do Departamento do Sistema de Saúde do Futuro e Consultor Sênior do Departamento de Radiologia Diagnóstica do Hospital Geral de Cingapura (SGH).

“Os médicos devem estar ativamente envolvidos na comunicação iterativa com os desenvolvedores de IA para garantir que os modelos estejam alinhados com a ética e o contexto médicos”, enfatizou o coautor sênior Professor Marcus Ong, Diretor do Programa de Pesquisa de Serviços e Sistemas de Saúde (HSSR) da Duke-NUS, que também é Consultor Sênior do Departamento de Medicina de Emergência da SGH. “As boas intenções por si só não podem garantir uma IA justa, a menos que tenhamos supervisão colectiva de diversos especialistas, considerando todas as nuances sociais e éticas. Procurar uma IA equitativa e imparcial para melhorar os cuidados de saúde exigirá diálogos abertos e interdisciplinares.”

A perspectiva publicada em npj Medicina Digital representa uma colaboração internacional entre pesquisadores de instituições de Cingapura, Bélgica e Estados Unidos. Autores de todo o Centro Médico Acadêmico SingHealth Duke-NUS (incluindo Duke-NUS, SingHealth, SGH, Singapore Eye Research Institute e Singapore National Eye Centre) trabalharam em conjunto com especialistas da Universidade de Antuérpia, na Bélgica, bem como da Weill Cornell Medicine, Massachusetts Instituto de Tecnologia, Beth Israel Deaconess Medical Center e Harvard TH Chan School of Public Health nos Estados Unidos.

O professor Patrick Tan, vice-reitor sênior de pesquisa da Duke-NUS, comentou: “Esta cooperação global exemplifica os diálogos interdisciplinares necessários para o avanço de técnicas justas de IA para melhorar os cuidados de saúde. Esperamos que este esforço colaborativo abrangendo Singapura, Europa e os EUA fornece perspectivas valiosas para inspirar novas parcerias multinacionais rumo a uma IA equitativa e imparcial.”

.

Source link

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo