.
Nas sociedades pré-históricas, os humanos tendiam a aprender com os membros de nosso grupo interno ou com indivíduos de maior prestígio, já que essa informação tinha maior probabilidade de ser confiável e resultar no sucesso do grupo. No entanto, com o advento de diversas e complexas comunidades modernas – e especialmente nas mídias sociais – esses preconceitos se tornam menos eficazes. Por exemplo, uma pessoa com quem estamos conectados online pode não ser necessariamente confiável, e as pessoas podem facilmente fingir prestígio nas mídias sociais. Em uma revisão publicada na revista Tendências em Ciência Cognitiva em 3 de agostoterceiroum grupo de cientistas sociais descreve como as funções dos algoritmos de mídia social estão desalinhadas com os instintos sociais humanos destinados a promover a cooperação, o que pode levar à polarização e desinformação em larga escala.
“Várias pesquisas de usuários agora no Twitter e no Facebook sugerem que a maioria dos usuários está exausta com o conteúdo político que vê. Muitos usuários estão insatisfeitos e há muitos componentes de reputação que o Twitter e o Facebook devem enfrentar quando se trata de eleições e a disseminação de desinformação”, diz o primeiro autor William Brady, psicólogo social da Kellogg School of Management em Northwestern.
“Queríamos lançar uma revisão sistemática que tentasse ajudar a entender como a psicologia humana e os algoritmos interagem de maneiras que podem ter essas consequências”, diz Brady. “Uma das coisas que esta revisão traz para a mesa é uma perspectiva de aprendizado social. Como psicólogos sociais, estamos constantemente estudando como podemos aprender com os outros. Essa estrutura é fundamentalmente importante se quisermos entender como os algoritmos influenciam nossas interações sociais .”
Os seres humanos tendem a aprender com os outros de uma maneira que normalmente promove a cooperação e a solução coletiva de problemas, e é por isso que eles tendem a aprender mais com indivíduos que percebem como parte de seu grupo interno e com aqueles que consideram prestigiosos. Além disso, quando os vieses de aprendizagem estavam evoluindo pela primeira vez, era importante priorizar as informações com carga moral e emocional, pois essas informações provavelmente seriam relevantes para impor as normas do grupo e garantir a sobrevivência coletiva.
Por outro lado, os algoritmos geralmente selecionam informações que aumentam o envolvimento do usuário para aumentar a receita de publicidade. Isso significa que os algoritmos amplificam as próprias informações com as quais os humanos tendem a aprender e podem supersaturar os feeds de mídia social com o que os pesquisadores chamam de informações de prestígio, grupo interno, moral e emocional (PRIME), independentemente da precisão do conteúdo ou da representatividade das opiniões de um grupo. . Como resultado, é mais provável que conteúdos políticos extremos ou tópicos controversos sejam amplificados e, se os usuários não forem expostos a opiniões externas, eles podem se deparar com uma falsa compreensão da opinião majoritária de diferentes grupos.
“Não é que o algoritmo seja projetado para interromper a cooperação”, diz Brady. “É que seus objetivos são diferentes. E, na prática, quando você junta essas funções, acaba tendo alguns desses efeitos potencialmente negativos.”
Para resolver esse problema, o grupo de pesquisa primeiro propõe que os usuários de mídia social precisam estar mais cientes de como os algoritmos funcionam e por que determinado conteúdo aparece em seu feed. As empresas de mídia social normalmente não divulgam todos os detalhes de como seus algoritmos selecionam o conteúdo, mas um começo pode oferecer explicações sobre por que um usuário está vendo uma postagem específica. Por exemplo, é porque os amigos do usuário estão interagindo com o conteúdo ou porque o conteúdo geralmente é popular? Fora das empresas de mídia social, a equipe de pesquisa está desenvolvendo suas próprias intervenções para ensinar as pessoas a serem consumidores mais conscientes das mídias sociais.
Além disso, os pesquisadores propõem que as empresas de mídia social possam tomar medidas para mudar seus algoritmos, para que sejam mais eficazes na promoção da comunidade. Em vez de favorecer apenas as informações PRIME, os algoritmos podem definir um limite para a quantidade de informações PRIME que eles amplificam e priorizar a apresentação aos usuários de um conjunto diversificado de conteúdo. Essas mudanças podem continuar a ampliar as informações envolventes, evitando que conteúdos mais polarizadores ou politicamente extremos sejam super-representados nos feeds.
“Como pesquisadores, entendemos a tensão que as empresas enfrentam quando se trata de fazer essas mudanças e seus resultados. É por isso que realmente achamos que essas mudanças teoricamente ainda poderiam manter o engajamento e, ao mesmo tempo, desaprovar essa super-representação das informações PRIME”, diz Brady. “A experiência do usuário pode realmente melhorar fazendo um pouco disso.”
.






