.
Quando duas pessoas interagem, sua atividade cerebral se sincroniza, mas não estava claro até agora até que ponto esse “acoplamento cérebro-cérebro” é devido a informações linguísticas ou outros fatores, como linguagem corporal ou tom de voz. Pesquisadores relatam 2 de agosto no periódico Neurônio que o acoplamento cérebro-cérebro durante a conversa pode ser modelado considerando as palavras usadas durante a conversa e o contexto em que são usadas.
“Podemos ver o conteúdo linguístico emergir palavra por palavra no cérebro do falante antes que ele realmente articule o que está tentando dizer, e o mesmo conteúdo linguístico ressurge rapidamente no cérebro do ouvinte depois que ele o ouve”, diz o primeiro autor e neurocientista Zaid Zada, da Universidade de Princeton.
Para nos comunicarmos verbalmente, precisamos concordar com as definições de diferentes palavras, mas essas definições podem mudar dependendo do contexto. Por exemplo, sem contexto, seria impossível saber se a palavra “frio” se refere à temperatura, a um traço de personalidade ou a uma infecção respiratória.
“O significado contextual das palavras, conforme ocorrem em uma frase específica, ou em uma conversa específica, é realmente importante para a maneira como nos entendemos”, diz o neurocientista e coautor sênior Samuel Nastase, da Universidade de Princeton. “Queríamos testar a importância do contexto no alinhamento da atividade cerebral entre falante e ouvinte para tentar quantificar o que é compartilhado entre os cérebros durante a conversa.”
Para examinar o papel do contexto na condução do acoplamento cerebral, a equipe coletou dados de atividade cerebral e transcrições de conversas de pares de pacientes com epilepsia durante conversas naturais. Os pacientes estavam passando por monitoramento intracraniano usando eletrocorticografia para propósitos clínicos não relacionados no New York University School of Medicine Comprehensive Epilepsy Center. Comparado a métodos menos invasivos como fMRI, a eletrocorticografia registra atividade cerebral de altíssima resolução porque os eletrodos são colocados em contato direto com a superfície do cérebro.
Em seguida, os pesquisadores usaram o grande modelo de linguagem GPT-2 para extrair o contexto em torno de cada uma das palavras usadas nas conversas e, então, usaram essas informações para treinar um modelo para prever como a atividade cerebral muda à medida que as informações fluem do falante para o ouvinte durante a conversa.
Usando o modelo, os pesquisadores conseguiram observar a atividade cerebral associada ao significado específico do contexto das palavras nos cérebros tanto do falante quanto do ouvinte. Eles mostraram que a atividade cerebral específica da palavra atingiu o pico no cérebro do falante cerca de 250 ms antes de ele falar cada palavra, e picos correspondentes na atividade cerebral associados às mesmas palavras apareceram no cérebro do ouvinte aproximadamente 250 ms depois de ele ouvi-las.
Comparado ao trabalho anterior sobre o acoplamento cerebral entre falante e ouvinte, o modelo de abordagem baseado em contexto da equipe foi mais capaz de prever padrões compartilhados na atividade cerebral.
“Isso mostra o quão importante o contexto é, porque ele explica melhor os dados cerebrais”, diz Zada. “Grandes modelos de linguagem pegam todos esses diferentes elementos da linguística, como sintaxe e semântica, e os representam em um único vetor de alta dimensão. Mostramos que esse tipo de modelo unificado é capaz de superar outros modelos projetados manualmente pela linguística.”
No futuro, os pesquisadores planejam expandir seu estudo aplicando o modelo a outros tipos de dados de atividade cerebral, por exemplo, dados de fMRI, para investigar como partes do cérebro não acessíveis com eletrocorticografia operam durante conversas.
“Há muito trabalho futuro interessante a ser feito observando como diferentes áreas do cérebro se coordenam entre si em diferentes escalas de tempo e com diferentes tipos de conteúdo”, diz Nastase.
Esta pesquisa foi apoiada pelos Institutos Nacionais de Saúde.
.