.
Os seres humanos realizam uma quantidade fenomenal de tarefas combinando informações. Percebemos objetos combinando arestas, categorizamos cenas combinando objetos, interpretamos eventos combinando ações e entendemos frases combinando palavras. Mas os pesquisadores ainda não têm uma compreensão clara de como o cérebro forma e mantém o significado do todo – como uma frase – de suas partes. Pesquisadores da Carnegie Mellon University no Departamento de Aprendizado de Máquina (MLD) da Escola de Ciência da Computação (SCS) lançaram uma nova luz sobre os processos cerebrais que suportam o significado emergente de palavras combinadas.
Mariya Toneva, ex-MLD Ph.D. agora professor do Max Planck Institute for Software Systems, trabalhou com Leila Wehbe, professora assistente em MLD, e Tom Mitchell, professor da Founders University em SCS, para estudar quais regiões do cérebro processavam o significado de palavras combinadas e como o cérebro manteve e atualizou o significado das palavras. Este trabalho pode contribuir para uma compreensão mais completa de como o cérebro processa, mantém e atualiza o significado das palavras e pode redirecionar o foco da pesquisa para áreas do cérebro adequadas para futuras neurotecnologias vestíveis, como dispositivos que podem decodificar o que uma pessoa está tentando. para dizer diretamente da atividade cerebral. Esses dispositivos podem ajudar pessoas com doenças como Parkinson ou esclerose múltipla que limitam o controle muscular.
Toneva, Mitchell e Wehbe usaram redes neurais para construir modelos computacionais que poderiam prever as áreas do cérebro que processam o novo significado das palavras quando elas são combinadas. Eles testaram esse modelo registrando a atividade cerebral de oito pessoas enquanto liam um capítulo de “Harry Potter e a Pedra Filosofal”. Os resultados sugerem que algumas regiões do cérebro processam tanto o significado de palavras individuais quanto o significado de palavras combinadas, enquanto outras processam apenas o significado de palavras individuais. Crucialmente, os autores também descobriram que uma das ferramentas de registro de atividade neural que eles usaram, a magnetoencefalografia (MEG), não capturou um sinal que refletisse o significado das palavras combinadas. Como os futuros dispositivos vestíveis de neurotecnologia podem usar ferramentas de gravação semelhantes ao MEG, uma limitação potencial é a incapacidade de detectar o significado de palavras combinadas, o que pode afetar sua capacidade de ajudar os usuários a produzir linguagem.
O trabalho da equipe se baseia em pesquisas anteriores de Wehbe e Mitchell, que usaram imagens de ressonância magnética funcional para identificar as partes do cérebro envolvidas enquanto as pessoas liam um capítulo do mesmo livro de Potter. O resultado foi o primeiro modelo computacional integrado de leitura, identificando quais partes do cérebro são responsáveis por subprocessos como analisar sentenças, determinar o significado das palavras e entender as relações entre os caracteres.
Fonte da história:
Materiais fornecidos por Universidade Carnegie Mellon. Original escrito por Aaron Aupperlee. Observação: o conteúdo pode ser editado quanto ao estilo e tamanho.
.