.
Enquanto os acordes de “Another Brick in the Wall, Part 1” do Pink Floyd enchiam a sala de cirurgia, neurocientistas do Albany Medical Center registravam diligentemente a atividade de eletrodos colocados no cérebro de pacientes submetidos a cirurgia de epilepsia.
O objetivo? Para capturar a atividade elétrica das regiões do cérebro sintonizadas com os atributos da música – tom, ritmo, harmonia e palavras – para ver se eles poderiam reconstruir o que o paciente estava ouvindo.
Mais de uma década depois, após análise detalhada dos dados de 29 desses pacientes por neurocientistas da Universidade da Califórnia, Berkeley, a resposta é claramente sim.
A frase “Ao todo era apenas um tijolo na parede” aparece de forma reconhecível na música reconstruída, seus ritmos intactos e as palavras turvas, mas decifráveis. Esta é a primeira vez que os pesquisadores reconstruíram uma música reconhecível a partir de gravações cerebrais.
A reconstrução mostra a viabilidade de gravar e traduzir ondas cerebrais para capturar os elementos musicais da fala, bem como as sílabas. Nos humanos, esses elementos musicais, chamados de prosódia – ritmo, ênfase, sotaque e entonação – carregam um significado que as palavras sozinhas não transmitem.
Como essas gravações de eletroencefalografia intracraniana (iEEG) podem ser feitas apenas a partir da superfície do cérebro – o mais próximo possível dos centros auditivos – ninguém escutará as músicas em sua cabeça tão cedo.
Mas para as pessoas que têm problemas de comunicação, seja por causa de derrame ou paralisia, essas gravações de eletrodos na superfície do cérebro podem ajudar a reproduzir a musicalidade da fala que falta nas reconstruções robóticas de hoje.
“É um resultado maravilhoso”, disse Robert Knight, neurologista e professor de psicologia da UC Berkeley no Helen Wills Neuroscience Institute, que conduziu o estudo com o colega de pós-doutorado Ludovic Bellier. “Uma das coisas para mim sobre a música é que ela tem prosódia e conteúdo emocional. À medida que todo esse campo de interfaces cérebro-máquina progride, isso oferece uma maneira de adicionar musicalidade a futuros implantes cerebrais para pessoas que precisam, alguém que tem ELA ou algum outro distúrbio neurológico ou de desenvolvimento incapacitante que comprometa a produção da fala. Dá a você a capacidade de decodificar não apenas o conteúdo linguístico, mas parte do conteúdo prosódico da fala, parte do afeto. Acho que é isso que realmente começamos a decifrar código ligado.”
À medida que as técnicas de gravação cerebral melhoram, pode ser possível algum dia fazer essas gravações sem abrir o cérebro, talvez usando eletrodos sensíveis presos ao couro cabeludo. Atualmente, o EEG do couro cabeludo pode medir a atividade cerebral para detectar uma letra individual de um fluxo de letras, mas a abordagem leva pelo menos 20 segundos para identificar uma única letra, tornando a comunicação trabalhosa e difícil, disse Knight.
“Técnicas não invasivas simplesmente não são precisas o suficiente hoje. Vamos esperar, para os pacientes, que no futuro possamos, apenas com eletrodos colocados fora do crânio, ler a atividade de regiões mais profundas do cérebro com uma boa qualidade de sinal. Mas estamos longe de lá”, disse Bellier.
Bellier, Knight e seus colegas relataram os resultados hoje na revista PLOS Biologiaobservando que eles adicionaram “outro tijolo na parede de nossa compreensão do processamento de música no cérebro humano”.
Lendo sua mente? Ainda não.
As interfaces cérebro-máquina usadas hoje para ajudar as pessoas a se comunicarem quando não conseguem falar podem decodificar palavras, mas as sentenças produzidas têm uma qualidade robótica semelhante à do falecido Stephen Hawking quando usou um dispositivo gerador de fala.
“No momento, a tecnologia é mais como um teclado para a mente”, disse Bellier. “Você não pode ler seus pensamentos em um teclado. Você precisa apertar os botões. E isso faz uma espécie de voz robótica; com certeza há menos do que chamo de liberdade expressiva.”
Bellier deve saber. Ele toca música desde a infância – bateria, violão clássico, piano e baixo, chegando a se apresentar em uma banda de heavy metal. Quando Knight pediu que ele trabalhasse na musicalidade da fala, Bellier disse: “Pode apostar que fiquei empolgado quando recebi a proposta.”
Em 2012, Knight, o colega de pós-doutorado Brian Pasley e seus colegas foram os primeiros a reconstruir as palavras que uma pessoa ouvia apenas a partir de gravações da atividade cerebral.
Mais recentemente, outros pesquisadores levaram o trabalho de Knight muito além. Eddie Chang, um neurocirurgião da UC San Francisco e coautor sênior do artigo de 2012, registrou sinais da área motora do cérebro associados aos movimentos da mandíbula, lábios e língua para reconstruir a fala pretendida por um paciente paralisado, com as palavras exibidas em uma tela de computador.
Esse trabalho, relatado em 2021, empregou inteligência artificial para interpretar as gravações cerebrais de um paciente tentando vocalizar uma frase com base em um conjunto de 50 palavras.
Embora a técnica de Chang esteja dando certo, o novo estudo sugere que a gravação das regiões auditivas do cérebro, onde todos os aspectos do som são processados, pode capturar outros aspectos da fala que são importantes na comunicação humana.
“A decodificação dos córtices auditivos, que estão mais próximos da acústica dos sons, em oposição ao córtex motor, que está mais próximo dos movimentos que são feitos para gerar a acústica da fala, é super promissor”, acrescentou Bellier. “Isso dará um pouco de cor ao que está decodificado.”
Para o novo estudo, Bellier reanalisou as gravações cerebrais obtidas em 2012 e 2013 enquanto os pacientes tocavam um segmento de aproximadamente 3 minutos da música do Pink Floyd, que é do álbum de 1979 A parede. Ele esperava ir além de estudos anteriores, que testaram se os modelos de decodificação poderiam identificar diferentes peças e gêneros musicais, para realmente reconstruir frases musicais por meio de modelos de decodificação baseados em regressão.
Bellier enfatizou que o estudo, que usou inteligência artificial para decodificar a atividade cerebral e depois codificar uma reprodução, não apenas criou uma caixa preta para sintetizar a fala. Ele e seus colegas também foram capazes de identificar novas áreas do cérebro envolvidas na detecção de ritmo, como uma guitarra vibrante, e descobriram que algumas porções do córtex auditivo – no giro temporal superior, localizado logo atrás e acima da orelha – – responder no início de uma voz ou um sintetizador, enquanto outras áreas respondem a vocais sustentados.
Os pesquisadores também confirmaram que o lado direito do cérebro está mais sintonizado com a música do que o lado esquerdo.
“A linguagem é mais do lado esquerdo do cérebro. A música é mais distribuída, com uma tendência para o lado direito”, disse Knight.
“Não estava claro que seria o mesmo com estímulos musicais”, disse Bellier. “Então, aqui confirmamos que isso não é apenas uma coisa específica da fala, mas é mais fundamental para o sistema auditivo e a maneira como ele processa a fala e a música”.
Knight está embarcando em uma nova pesquisa para entender os circuitos cerebrais que permitem que algumas pessoas com afasia devido a derrame ou dano cerebral se comuniquem cantando quando não conseguem encontrar as palavras para se expressar.
Outros coautores do artigo são os pós-doutorandos do Helen Wills Neuroscience Institute, Anaïs Llorens e Déborah Marciano, Aysegul Gunduz, da Universidade da Flórida, e Gerwin Schalk e Peter Brunner, do Albany Medical College, em Nova York e na Universidade de Washington, que capturaram as gravações cerebrais.
.