.
Pesquisadores da Universidade de Aston e da Universidade de York descobriram novos insights sobre como o cérebro humano faz julgamentos perceptivos do mundo externo.
O estudo, publicado em 8 de maio na revista PLOS UMexplorou os mecanismos computacionais usados pelo cérebro humano para perceber o tamanho dos objetos no mundo ao nosso redor.
A pesquisa, liderada pelo professor Tim Meese, da Escola de Optometria da Universidade de Aston e pelo Dr. mas que o faz de maneira grosseira.
É bem conhecido que, para derivar o tamanho do objeto a partir do tamanho da imagem da retina, nosso sistema visual precisa estimar a distância até o objeto. A imagem da retina contém muitas pistas pictóricas, como a perspectiva linear, que ajudam o sistema a derivar o tamanho relativo dos objetos. No entanto, para derivar o tamanho absoluto, o sistema precisa conhecer a escala espacial.
Levando em consideração o desfoque desfocado, como as partes borradas de uma imagem fora da profundidade de foco de uma câmera, o sistema visual pode conseguir isso. A matemática por trás disso foi bem trabalhada por outros, mas o estudo fez a pergunta: a visão humana explora essa matemática?
A equipe de pesquisa apresentou aos participantes pares fotográficos de cenas ferroviárias em escala real sujeitas a vários tratamentos de desfoque artificial e modelos em pequena escala de cenas ferroviárias tiradas com longa exposição e pequena abertura para diminuir o desfoque do desfoque. A tarefa era detectar qual fotografia em cada par era a verdadeira cena em escala real.
Quando o desfoque artificial foi orientado adequadamente com o plano do solo (o plano horizontal que representa o solo no qual o observador está) nas cenas em escala real, os participantes foram enganados e acreditaram que os modelos pequenos eram as cenas em escala real. Notavelmente, isso não exigia a aplicação de gradientes realistas de desfoque. Faixas uniformes simples de desfoque na parte superior e inferior das fotografias alcançaram efeitos de miniaturização quase equivalentes.
Tim Meese, professor de ciência da visão na Universidade de Aston, disse: “Nossos resultados indicam que a visão humana pode explorar o desfoque de desfoque para inferir a escala perceptiva, mas faz isso de forma grosseira – mais uma heurística do que uma análise métrica. No geral, nossas descobertas fornecem novas insights sobre os mecanismos computacionais usados pelo cérebro humano em julgamentos perceptivos sobre a relação entre nós mesmos e o mundo externo.”
Daniel Baker, professor sênior de psicologia da Universidade de York, disse: “Essas descobertas demonstram que nossa percepção de tamanho não é perfeita e pode ser influenciada por outras propriedades de uma cena. Também destaca a notável adaptabilidade do sistema visual. Isso pode ter relevância para a compreensão dos princípios computacionais subjacentes à nossa percepção do mundo. Por exemplo, ao julgar o tamanho e a distância dos perigos ao dirigir.”
.