.
Uma prótese de fala desenvolvida por uma equipe colaborativa de neurocientistas, neurocirurgiões e engenheiros da Duke pode traduzir os sinais cerebrais de uma pessoa no que ela está tentando dizer.
Aparecendo em 6 de novembro na revista Comunicações da Naturezaa nova tecnologia poderá um dia ajudar as pessoas incapazes de falar devido a distúrbios neurológicos a recuperar a capacidade de comunicar através de uma interface cérebro-computador.
“Há muitos pacientes que sofrem de distúrbios motores debilitantes, como ELA (esclerose lateral amiotrófica) ou síndrome de encarceramento, que podem prejudicar sua capacidade de falar”, disse Gregory Cogan, Ph.D., professor de neurologia na Universidade Duke. Faculdade de Medicina e um dos principais pesquisadores envolvidos no projeto. “Mas as ferramentas atuais disponíveis para permitir a comunicação são geralmente muito lentas e complicadas.”
Imagine ouvir um audiolivro na metade da velocidade. Essa é a melhor taxa de decodificação de voz disponível atualmente, que atinge cerca de 78 palavras por minuto. As pessoas, porém, falam cerca de 150 palavras por minuto.
O atraso entre as taxas de fala falada e decodificada é parcialmente devido aos relativamente poucos sensores de atividade cerebral que podem ser fundidos em um pedaço de material fino como papel colocado sobre a superfície do cérebro. Menos sensores fornecem informações menos decifráveis para decodificar.
Para melhorar as limitações anteriores, Cogan se uniu ao colega do corpo docente do Duke Institute for Brain Sciences, Jonathan Viventi, Ph.D., cujo laboratório de engenharia biomédica é especializado na fabricação de sensores cerebrais de alta densidade, ultrafinos e flexíveis.
Para este projeto, Viventi e sua equipe colocaram impressionantes 256 sensores cerebrais microscópicos em um pedaço de plástico flexível de uso médico, do tamanho de um selo postal. Neurônios separados por apenas um grão de areia podem ter padrões de atividade totalmente diferentes ao coordenar a fala, por isso é necessário distinguir sinais de células cerebrais vizinhas para ajudar a fazer previsões precisas sobre a fala pretendida.
Depois de fabricar o novo implante, Cogan e Viventi se uniram a vários neurocirurgiões do Duke University Hospital, incluindo Derek Southwell, MD, Ph.D., Nandan Lad, MD, Ph.D., e Allan Friedman, MD, que ajudaram a recrutar quatro pacientes. para testar os implantes. O experimento exigiu que os pesquisadores colocassem o dispositivo temporariamente em pacientes que estavam sendo submetidos a uma cirurgia cerebral devido a alguma outra condição, como o tratamento da doença de Parkinson ou a remoção de um tumor. O tempo foi limitado para Cogan e sua equipe testarem seu dispositivo na sala de cirurgia.
“Gosto de compará-lo a uma equipe de pit da NASCAR”, disse Cogan. “Não queríamos acrescentar nenhum tempo extra ao procedimento cirúrgico, por isso tínhamos que entrar e sair em 15 minutos. Assim que o cirurgião e a equipe médica dissessem ‘Vai!’ corremos para a ação e o paciente executou a tarefa.”
A tarefa era uma atividade simples de ouvir e repetir. Os participantes ouviram uma série de palavras sem sentido, como “ava”, “kug” ou “vip”, e depois falaram cada uma delas em voz alta. O dispositivo registrou a atividade do córtex motor da fala de cada paciente, coordenando quase 100 músculos que movem os lábios, a língua, a mandíbula e a laringe.
Posteriormente, Suseendrakumar Duraivel, o primeiro autor do novo relatório e estudante de graduação em engenharia biomédica na Duke, pegou os dados neurais e de fala da sala de cirurgia e os inseriu em um algoritmo de aprendizado de máquina para ver com que precisão ele poderia prever qual som estava sendo ouvido. feito, com base apenas nas gravações da atividade cerebral.
Para alguns sons e participantes, como /g/ na palavra “gak”, o decodificador acertou 84% das vezes quando era o primeiro som em uma sequência de três que compunha uma determinada palavra sem sentido.
A precisão caiu, porém, à medida que o decodificador analisava os sons no meio ou no final de uma palavra sem sentido. Também seria difícil se dois sons fossem semelhantes, como /p/ e /b/.
No geral, o decodificador foi preciso em 40% das vezes. Isso pode parecer uma pontuação de teste humilde, mas foi bastante impressionante, dado que proezas técnicas semelhantes de conversão do cérebro para a fala requerem horas ou dias de dados para serem extraídos. O algoritmo de decodificação de fala usado por Duraivel, entretanto, funcionou com apenas 90 segundos de dados falados do teste de 15 minutos.
Duraivel e seus mentores estão entusiasmados em fazer uma versão sem fio do dispositivo com uma recente doação de US$ 2,4 milhões do National Institutes of Health.
“Agora estamos desenvolvendo o mesmo tipo de dispositivos de gravação, mas sem fios”, disse Cogan. “Você seria capaz de se movimentar e não teria que ficar preso a uma tomada elétrica, o que é realmente emocionante.”
Embora o trabalho deles seja encorajador, ainda há um longo caminho a percorrer para que a prótese de fala de Viventi e Cogan chegue às prateleiras em breve.
“Estamos no ponto em que ainda é muito mais lento do que a fala natural”, disse Viventi em um artigo recente da Duke Magazine sobre a tecnologia, “mas você pode ver a trajetória onde poderá chegar lá”.
Este trabalho foi apoiado por doações dos Institutos Nacionais de Saúde (R01DC019498, UL1TR002553), Departamento de Defesa (W81XWH-21-0538), Fundação Klingenstein-Simons e um Prêmio Incubadora do Duke Institute for Brain Sciences.
.