Estudos/Pesquisa

Sinais cerebrais transformados em fala por meio de implantes e IA

.

Pesquisadores da Radboud University e da UMC Utrecht conseguiram transformar sinais cerebrais em fala audível. Ao decodificar sinais do cérebro por meio de uma combinação de implantes e IA, eles foram capazes de prever as palavras que as pessoas queriam dizer com uma precisão de 92 a 100%. Suas descobertas são publicadas no Jornal de Engenharia Neural este mês.

A pesquisa indica um desenvolvimento promissor no campo das interfaces cérebro-computador, de acordo com a autora principal Julia Berezutskaya, pesquisadora do Instituto Donders para Cérebro, Cognição e Comportamento da Universidade Radboud e UMC Utrecht. Berezutskaya e colegas da UMC Utrecht e da Radboud University usaram implantes cerebrais em pacientes com epilepsia para inferir o que as pessoas estavam dizendo.

Trazendo de volta vozes

“Em última análise, esperamos disponibilizar esta tecnologia para pacientes em estado de encarceramento, que estão paralisados ​​e incapazes de comunicar”, diz Berezutskaya. “Essas pessoas perdem a capacidade de mover os músculos e, portanto, de falar. Ao desenvolver uma interface cérebro-computador, podemos analisar a atividade cerebral e dar-lhes voz novamente”.

Para o experimento em seu novo artigo, os pesquisadores pediram a pessoas não paralisadas com implantes cerebrais temporários que falassem algumas palavras em voz alta enquanto sua atividade cerebral era medida. Berezutskaya: ‘Fomos então capazes de estabelecer um mapeamento direto entre a atividade cerebral, por um lado, e a fala, por outro. Também utilizamos modelos avançados de inteligência artificial para traduzir essa atividade cerebral diretamente em fala audível. Isso significa que não conseguimos apenas adivinhar o que as pessoas diziam, mas conseguimos transformar imediatamente essas palavras em sons inteligíveis e compreensíveis. Além disso, o discurso reconstruído até soava como o orador original no tom de voz e na maneira de falar.’

Pesquisadores de todo o mundo estão trabalhando em maneiras de reconhecer palavras e frases em padrões cerebrais. Os investigadores conseguiram reconstruir a fala inteligível com conjuntos de dados relativamente pequenos, mostrando que os seus modelos podem revelar o mapeamento complexo entre a atividade cerebral e a fala com dados limitados. Crucialmente, eles também realizaram testes de audição com voluntários para avaliar o quão identificáveis ​​eram as palavras sintetizadas. Os resultados positivos desses testes indicam que a tecnologia não está apenas conseguindo identificar as palavras corretamente, mas também transmitir essas palavras de forma audível e compreensível, como uma voz real.

Limitações

“Por enquanto, ainda há uma série de limitações”, alerta Berezutskaya. “Nestas experiências, pedimos aos participantes que dissessem doze palavras em voz alta, e essas foram as palavras que tentámos detectar. Em geral, prever palavras individuais é menos complicado do que prever frases inteiras. No futuro, grandes modelos de linguagem usados ​​na pesquisa de IA podem ser benéficos. Nosso objetivo é prever frases e parágrafos completos do que as pessoas estão tentando dizer com base apenas na atividade cerebral. Para chegar lá, precisaremos de mais experimentos, implantes mais avançados, conjuntos de dados maiores e modelos avançados de IA. Todos estes processos ainda levarão alguns anos, mas parece que estamos na direção certa.’

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo