Estudos/Pesquisa

Mantendo um ser humano informado: Gerenciando a ética da IA ​​na medicina

.

A inteligência artificial (IA) – famosa pelo ChatGPT – é cada vez mais utilizada na medicina para melhorar o diagnóstico e o tratamento de doenças e para evitar exames desnecessários aos pacientes. Mas os dispositivos médicos de IA também podem prejudicar os pacientes e agravar as desigualdades na saúde se não forem concebidos, testados e utilizados com cuidado, de acordo com um grupo de trabalho internacional que incluiu um bioeticista do Centro Médico da Universidade de Rochester.

Jonathan Herington, PhD, foi membro da Força-Tarefa de IA da Sociedade de Medicina Nuclear e Imagens Médicas, que apresentou recomendações sobre como desenvolver e usar eticamente dispositivos médicos de IA em dois artigos publicados no Revista de Medicina Nuclear. Em suma, o grupo de trabalho apelou a uma maior transparência sobre a precisão e os limites da IA ​​e delineou formas de garantir que todas as pessoas tenham acesso a dispositivos médicos de IA que funcionem para elas – independentemente da sua raça, etnia, género ou riqueza.

Embora o fardo do design e dos testes adequados recaia sobre os desenvolvedores de IA, os prestadores de cuidados de saúde são, em última análise, responsáveis ​​pelo uso adequado da IA ​​e não devem confiar muito nas previsões da IA ​​ao tomar decisões sobre cuidados com os pacientes.

“Deve haver sempre um ser humano envolvido”, disse Herington, que é professor assistente de Humanidades da Saúde e Bioética na URMC e foi um dos três bioeticistas adicionados à força-tarefa em 2021. “Os médicos devem usar a IA como uma contribuição para seus própria tomada de decisão, em vez de substituir a sua tomada de decisão.”

Isto exige que os médicos compreendam verdadeiramente como um determinado dispositivo médico de IA deve ser usado, quão bem ele funciona nessa tarefa e quaisquer limitações – e eles devem transmitir esse conhecimento aos seus pacientes. Os médicos devem pesar os riscos relativos de falsos positivos versus falsos negativos para uma determinada situação, ao mesmo tempo que têm em conta as desigualdades estruturais.

Ao utilizar um sistema de IA para identificar tumores prováveis ​​em exames PET, por exemplo, os prestadores de cuidados de saúde devem saber o desempenho do sistema na identificação deste tipo específico de tumor em pacientes do mesmo sexo, raça, etnia, etc., do paciente. em questão.

“O que isso significa para os desenvolvedores destes sistemas é que eles precisam ser muito transparentes”, disse Herington.

De acordo com a força-tarefa, cabe aos desenvolvedores de IA disponibilizar aos usuários informações precisas sobre o uso pretendido, o desempenho clínico e as limitações de seus dispositivos médicos. Uma maneira que eles recomendam fazer isso é criar alertas diretamente no dispositivo ou sistema que informe os usuários sobre o grau de incerteza das previsões da IA. Isso pode parecer mapas de calor em exames de câncer que mostram se as áreas têm maior ou menor probabilidade de serem cancerígenas.

Para minimizar essa incerteza, os desenvolvedores devem definir cuidadosamente os dados que utilizam para treinar e testar os seus modelos de IA e devem utilizar critérios clinicamente relevantes para avaliar o desempenho do modelo. Não basta simplesmente validar algoritmos usados ​​por um dispositivo ou sistema. Os dispositivos médicos de IA deveriam ser testados nos chamados “ensaios silenciosos”, o que significa que o seu desempenho seria avaliado por investigadores em pacientes reais em tempo real, mas as suas previsões não estariam disponíveis para o prestador de cuidados de saúde ou aplicadas à tomada de decisões clínicas.

Os desenvolvedores também devem projetar modelos de IA para serem úteis e precisos em todos os contextos em que serão implantados.

“Uma preocupação é que esses sistemas caros e de alta tecnologia seriam implantados em hospitais com recursos realmente elevados e melhorariam os resultados para pacientes relativamente mais favorecidos, enquanto os pacientes em hospitais rurais ou com poucos recursos não teriam acesso a eles – ou teriam acesso a sistemas que piorariam seus cuidados porque não foram projetados para eles”, disse Herington.

Atualmente, os dispositivos médicos de IA estão a ser treinados em conjuntos de dados em que os pacientes latinos e negros estão sub-representados, o que significa que os dispositivos têm menos probabilidade de fazer previsões precisas para os pacientes destes grupos. Para evitar o aprofundamento das desigualdades na saúde, os desenvolvedores devem garantir que os seus modelos de IA sejam calibrados para todos os grupos raciais e de género, treinando-os com conjuntos de dados que representem todas as populações que o dispositivo ou sistema médico irá servir.

Embora essas recomendações tenham sido desenvolvidas com foco na medicina nuclear e imagens médicas, Herington acredita que elas podem e devem ser amplamente aplicadas a dispositivos médicos de IA.

“Os sistemas estão se tornando cada vez mais poderosos e o cenário está mudando muito rapidamente”, disse Herington. “Temos uma janela que se fecha rapidamente para solidificar nossa estrutura ética e regulatória em torno dessas coisas”.

.

Source link

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo