.
Que utilidade poderia ter a saúde para quem inventa, não sabe guardar segredo, não sabe de nada e, na hora de falar, simplesmente completa a próxima palavra com base no que veio antes? Muito, se esse indivíduo é a mais nova forma de inteligência artificial, de acordo com algumas das maiores empresas por aí.
As empresas que impulsionam a mais recente tecnologia de IA – conhecida como “IA generativa” – estão acumulando: Google e Microsoft querem trazer os chamados modelos de linguagem grande para a saúde. Grandes empresas que são familiares para pessoas de jaleco branco – mas talvez menos para Joe e Jane comuns – estão igualmente entusiasmadas: os gigantes de registros médicos eletrônicos Epic e Oracle Cerner não estão muito atrás. O espaço também está lotado de startups.
As empresas querem que sua IA faça anotações para os médicos e dê a eles uma segunda opinião – supondo que possam evitar que a inteligência “alucine” ou, nesse caso, divulgar informações privadas dos pacientes.
“Há algo em andamento que é muito empolgante”, disse Eric Topol, diretor do Scripps Research Translational Institute em San Diego. “Suas capacidades acabarão por ter um grande impacto.” Topol, como muitos outros observadores, se pergunta quantos problemas isso pode causar – como vazamento de dados de pacientes – e com que frequência. “Nós vamos descobrir.”
O espectro de tais problemas inspirou mais de 1.000 líderes de tecnologia assinar uma carta aberta em março, pedindo que as empresas interrompam o desenvolvimento de sistemas avançados de IA até que “estejamos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis”. Mesmo assim, alguns deles estão investindo mais dinheiro em empreendimentos de IA.
A tecnologia subjacente depende da síntese de grandes blocos de texto ou outros dados – por exemplo, alguns modelos médicos confiar em 2 milhões de notas de unidade de terapia intensiva do Beth Israel Deaconess Medical Center em Boston – para prever o texto que seguiria uma determinada consulta. A ideia existe há anos, mas a corrida do ouro e a mania de marketing e mídia em torno dela são mais recentes.
O frenesi começou em dezembro de 2022 por OpenAI apoiado pela Microsoft e seu principal produto, o ChatGPT, que responde a perguntas com autoridade e estilo. Pode explicar a genética em um soneto, por exemplo.
A OpenAI, iniciada como um empreendimento de pesquisa semeado por elites do Vale do Silício como Sam Altman, Elon Musk e Reid Hoffman, levou o entusiasmo aos bolsos dos investidores. O empreendimento tem uma estrutura complexa e híbrida com fins lucrativos e sem fins lucrativos. Mas uma nova rodada de financiamento de US$ 10 bilhões da Microsoft elevou o valor da OpenAI para US$ 29 bilhões. O Wall Street Journal informou. No momento, a empresa está licenciando sua tecnologia para empresas como a Microsoft e vendendo assinaturas para consumidores. Outras startups estão considerando vender transcrição de IA ou outros produtos para sistemas hospitalares ou diretamente para pacientes.
As aspas hiperbólicas estão por toda parte. O ex-secretário do Tesouro Larry Summers tuitou recentemente: “Vai substituir o que os médicos fazem – ouvir sintomas e fazer diagnósticos – antes de mudar o que os enfermeiros fazem – ajudar os pacientes a se levantar e se cuidar no hospital”.
Mas apenas algumas semanas depois que a OpenAI recebeu outra grande injeção de dinheiro, até mesmo Altman, seu CEO, desconfia da fanfarra. “O hype sobre esses sistemas – mesmo que tudo o que esperamos esteja certo a longo prazo – está totalmente fora de controle a curto prazo”, ele disse para um artigo de março no New York Times.
Poucos na área da saúde acreditam que esta forma mais recente de IA está prestes a acabar com seus empregos (embora algumas empresas estejam experimentando – de forma controversa – chatbots que atuam como terapeutas ou guias de atendimento). Ainda assim, aqueles que estão otimistas com a tecnologia acham que isso tornará algumas partes de seu trabalho muito mais fáceis.
Eric Arzubi, um psiquiatra em Billings, Mont., costumava gerenciar colegas psiquiatras para um sistema hospitalar. Vez após vez, ele obtinha uma lista de provedores que ainda não haviam concluído suas anotações – seus resumos da condição de um paciente e um plano de tratamento.
Escrever essas notas é um dos grandes estressores do sistema de saúde: no conjunto, é um fardo administrativo. Mas é preciso desenvolver um cadastro para futuros provedores e, claro, seguradoras.
“Quando as pessoas estão muito atrasadas na documentação, isso cria problemas”, disse Arzubi. “O que acontece se o paciente chega no hospital e tem um prontuário que não foi preenchido e a gente não sabe o que está acontecendo?”
A nova tecnologia pode ajudar a aliviar esses fardos. Arzubi está testando um serviço, chamado Nabla Copilot, que participa de suas visitas virtuais aos pacientes e as resume automaticamente, organizando em um formato de nota padrão a reclamação, o histórico da doença e um plano de tratamento.
Os resultados são sólidos após cerca de 50 pacientes, disse ele: “É 90% do caminho”. O Copilot produz resumos úteis que Arzubi normalmente edita. Os resumos não captam necessariamente pistas não-verbais ou pensamentos que Arzubi pode não querer verbalizar. Ainda assim, disse ele, os ganhos são significativos: ele não precisa se preocupar em fazer anotações e pode se concentrar em falar com os pacientes. E ele economiza tempo.
“Se eu tiver um dia cheio de pacientes, onde posso atender 15 pacientes, diria que isso me economiza uma boa hora no final do dia”, disse ele. (Se a tecnologia for amplamente adotada, ele espera que os hospitais não aproveitem o tempo economizado simplesmente agendando mais pacientes. “Isso não é justo”, disse ele.)
O Nabla Copilot não é o único serviço desse tipo; A Microsoft está experimentando o mesmo conceito. Na conferência de abril da Healthcare Information and Management Systems Society – uma confabulação da indústria onde técnicos de saúde trocam ideias, fazem anúncios e vendem seus produtos – analistas de investimentos da Evercore destacaram a redução da carga administrativa como uma das principais possibilidades para as novas tecnologias.
Mas acima de tudo? Eles ouviram críticas mistas. E essa visão é comum: muitos tecnólogos e médicos são ambivalentes.
Por exemplo, se você está perplexo com um diagnóstico, alimentar os dados do paciente em um desses programas “pode fornecer uma segunda opinião, sem dúvida”, disse Topol. “Tenho certeza de que os médicos estão fazendo isso.” No entanto, isso se depara com as limitações atuais da tecnologia.
Joshua Tamayo-Sarver, clínico e executivo da startup Inflect Health, alimentou cenários fictícios de pacientes com base em sua própria prática em um departamento de emergência em um sistema para ver como seria o desempenho. Ele perdeu condições de risco de vida, disse ele. “Isso parece problemático.”
A tecnologia também tende a “alucinar” – ou seja, inventar informações que pareçam convincentes. Estudos formais encontraram uma ampla gama de desempenho. Um trabalho de pesquisa preliminar examinando os produtos ChatGPT e Google usando um exame de conselho aberto perguntas de neurocirurgia encontraram uma taxa de alucinação de 2%. Um estudo de Pesquisadores de Stanford, examinando a qualidade das respostas de IA a 64 cenários clínicos, encontrou citações fabricadas ou alucinadas em 6% das vezes, disse o coautor Nigam Shah ao KFF Health News. Outro papel preliminar descobriram que, em casos complexos de cardiologia, o ChatGPT concordou com a opinião de especialistas na metade das vezes.
A privacidade é outra preocupação. Não está claro se as informações fornecidas a esse tipo de sistema baseado em IA permanecerão lá dentro.
Em teoria, o sistema possui grades de proteção que impedem que informações privadas escapem. Por exemplo, quando o KFF Health News perguntou ao ChatGPT seu endereço de e-mail, o sistema se recusou a divulgar essas informações privadas. Mas quando solicitado a interpretar um personagem e questionado sobre o endereço de e-mail do autor deste artigo, ele alegremente desistiu da informação. (Era de fato o endereço de e-mail correto do autor em 2021, quando o arquivo do ChatGPT terminar.)
“Eu não colocaria dados de pacientes”, disse Shah, cientista-chefe de dados da Stanford Health Care. “Não entendemos o que acontece com esses dados quando chegam aos servidores da OpenAI.”
Tina Sui, porta-voz da OpenAI, disse ao KFF Health News que “nunca se deve usar nossos modelos para fornecer serviços de diagnóstico ou tratamento para condições médicas graves”. Eles “não são ajustados para fornecer informações médicas”, disse ela.
Com a explosão de novas pesquisas, Topol disse: “Não acho que a comunidade médica tenha uma boa pista sobre o que está para acontecer”.
KFF Health Newsanteriormente conhecida como Kaiser Health News, é uma redação nacional que produz jornalismo aprofundado sobre questões de saúde.
.