.
Em artigo publicado hoje na Biologia das Comunicaçõesneurocientistas auditivos da Universidade de Pittsburgh descrevem um modelo de aprendizado de máquina que ajuda a explicar como o cérebro reconhece o significado dos sons de comunicação, como chamadas de animais ou palavras faladas.
O algoritmo descrito no estudo modela como animais sociais, incluindo macacos-sagui e porquinhos-da-índia, usam redes de processamento de som em seus cérebros para distinguir entre categorias de som – como chamadas para acasalamento, comida ou perigo – e agir sobre elas.
O estudo é um passo importante para a compreensão dos meandros e complexidades do processamento neuronal subjacente ao reconhecimento de som. Os insights deste trabalho abrem o caminho para a compreensão e, eventualmente, o tratamento de distúrbios que afetam o reconhecimento de fala e a melhoria dos aparelhos auditivos.
“Mais ou menos todo mundo que conhecemos perderá parte da audição em algum momento de suas vidas, seja como resultado do envelhecimento ou da exposição ao ruído. Compreender a biologia do reconhecimento de som e encontrar maneiras de melhorá-lo é importante”, disse o autor sênior e Pitt professor assistente de neurobiologia Srivatsun Sadagopan, Ph.D. “Mas o processo de comunicação vocal é fascinante por si só. A maneira como nossos cérebros interagem uns com os outros e pode pegar ideias e transmiti-las através do som é nada menos que mágica.”
Humanos e animais encontram uma diversidade impressionante de sons todos os dias, desde a cacofonia da selva até o zumbido dentro de um restaurante movimentado. Não importa a poluição sonora no mundo que nos cerca, humanos e outros animais são capazes de se comunicar e se entender, incluindo tom de voz ou sotaque. Quando ouvimos a palavra “olá”, por exemplo, reconhecemos seu significado, independentemente de ter sido pronunciada com sotaque americano ou britânico, de ser uma mulher ou de um homem ou de estarmos em uma sala silenciosa ou ocupada. interseção.
A equipe começou com a intuição de que a forma como o cérebro humano reconhece e capta o significado dos sons de comunicação pode ser semelhante à forma como ele reconhece rostos em comparação com outros objetos. Os rostos são altamente diversos, mas têm algumas características comuns.
Em vez de combinar cada rosto que encontramos com um rosto “modelo” perfeito, nosso cérebro capta características úteis, como olhos, nariz e boca, e suas posições relativas, e cria um mapa mental dessas pequenas características que definem um rosto. face.
Em uma série de estudos, a equipe mostrou que os sons de comunicação também podem ser compostos por essas pequenas características. Os pesquisadores primeiro construíram um modelo de aprendizado de máquina de processamento de som para reconhecer os diferentes sons produzidos por animais sociais. Para testar se as respostas cerebrais correspondiam ao modelo, eles registraram a atividade cerebral de porquinhos-da-índia ouvindo os sons de comunicação de seus parentes. Neurônios em regiões do cérebro responsáveis pelo processamento de sons se iluminaram com uma rajada de atividade elétrica quando ouviram um ruído que tinha características presentes em tipos específicos desses sons, semelhantes ao modelo de aprendizado de máquina.
Eles então queriam comparar o desempenho do modelo com o comportamento real dos animais.
Porquinhos-da-índia foram colocados em um cercado e expostos a diferentes categorias de sons – guinchos e grunhidos que são categorizados como sinais sonoros distintos. Os pesquisadores então treinaram os porquinhos-da-índia para caminhar até diferentes cantos do recinto e receber recompensas de frutas, dependendo de qual categoria de som foi tocada.
Então, eles tornaram as tarefas mais difíceis: para imitar a maneira como os humanos reconhecem o significado das palavras faladas por pessoas com sotaques diferentes, os pesquisadores executaram chamadas de cobaias por meio de um software de alteração de som, acelerando-as ou diminuindo-as, aumentando ou diminuindo o tom. , ou adicionando ruído e ecos.
Os animais não apenas foram capazes de realizar a tarefa de forma tão consistente como se as chamadas que ouviram estivessem inalteradas, mas também continuaram a ter um bom desempenho, apesar dos ecos ou ruídos artificiais. Melhor ainda, o modelo de aprendizado de máquina descreveu seu comportamento (e a ativação subjacente de neurônios de processamento de som no cérebro) perfeitamente.
Como próximo passo, os pesquisadores estão traduzindo a precisão do modelo de animais para a fala humana.
“Do ponto de vista da engenharia, existem modelos de reconhecimento de fala muito melhores. O que é único em nosso modelo é que temos uma correspondência próxima com o comportamento e a atividade cerebral, dando-nos mais informações sobre a biologia. No futuro, essas percepções podem ser usado para ajudar pessoas com condições de neurodesenvolvimento ou para ajudar a projetar melhores aparelhos auditivos”, disse o principal autor Satyabrata Parida, Ph.D., pós-doutorado no departamento de neurobiologia de Pitt.
“Muitas pessoas lutam com condições que dificultam o reconhecimento da fala”, disse Manaswini Kar, aluno do laboratório Sadagopan. “Entender como um cérebro neurotípico reconhece palavras e dá sentido ao mundo auditivo ao seu redor tornará possível entender e ajudar aqueles que lutam”.
Um autor adicional do estudo é Shi Tong Liu, Ph.D., de Pitt.
.




