.
O fundador e CEO da Meta, Mark Zuckerberg, anunciou grandes mudanças na forma como a empresa aborda a desinformação no Facebook, Instagram e Threads. Em vez de depender de verificadores de fatos independentes, a Meta agora irá emular o X de Elon Musk (antigo Twitter) no uso de “notas da comunidade”. Essas contribuições de crowdsourcing permitem que os usuários sinalizem conteúdo que consideram questionável.
Zuckerberg afirmou que essas mudanças promovem a “liberdade de expressão”. Mas alguns especialistas temem que ele esteja cedendo à pressão política da direita e que efetivamente permita que um dilúvio de discursos de ódio e mentiras se espalhe nas plataformas Meta.
Pesquisas sobre a dinâmica de grupo das mídias sociais sugerem que esses especialistas têm razão.
À primeira vista, as notas comunitárias podem parecer democráticas, reflectindo valores de liberdade de expressão e decisões colectivas. Sistemas crowdsourced como Wikipedia, Metaculus e PredictIt, embora imperfeitos, muitas vezes conseguem aproveitar a sabedoria das multidões – onde o julgamento coletivo de muitos pode, por vezes, superar até mesmo os especialistas.
A investigação mostra que diversos grupos que reúnem julgamentos e estimativas independentes podem ser surpreendentemente eficazes no discernimento da verdade. No entanto, multidões sábias raramente têm de lidar com algoritmos de redes sociais.
Muitas pessoas dependem de plataformas como o Facebook para obter notícias, arriscando-se a ficar expostas à desinformação e a fontes tendenciosas. Depender dos utilizadores das redes sociais para policiar a precisão das informações poderia polarizar ainda mais as plataformas e amplificar vozes extremistas.
Duas tendências baseadas em grupo – a nossa necessidade psicológica de classificar a nós mesmos e aos outros em grupos – são particularmente preocupantes: o preconceito dentro/fora do grupo e a acrofilia (amor pelos extremos).
Viés dentro/fora do grupo
Os humanos são tendenciosos na forma como avaliam as informações. As pessoas são mais propensas a confiar e lembrar informações de seu grupo interno – aqueles que compartilham suas identidades – enquanto desconfiam de informações de grupos externos percebidos. Este preconceito leva a câmaras de eco, onde pessoas com ideias semelhantes reforçam crenças partilhadas, independentemente da precisão.
Pode parecer racional confiar na família, amigos ou colegas em detrimento de estranhos. Mas as fontes do grupo muitas vezes apresentam perspectivas e experiências semelhantes, oferecendo poucas informações novas. Os membros do grupo externo, por outro lado, são mais propensos a fornecer pontos de vista diversos. Essa diversidade é fundamental para a sabedoria das multidões.
Mas demasiadas divergências entre grupos podem impedir a ocorrência da verificação dos factos pela comunidade. Muitas notas da comunidade no X (antigo Twitter), como aquelas relacionadas às vacinas contra a COVID, provavelmente nunca foram mostradas publicamente porque os usuários discordavam entre si. O benefício da verificação de factos por terceiros foi fornecer uma fonte externa objetiva, em vez de necessitar de um acordo generalizado dos utilizadores de uma rede.
Pior ainda, tais sistemas são vulneráveis à manipulação por grupos bem organizados com agendas políticas. Por exemplo, os nacionalistas chineses teriam montado uma campanha para editar as entradas da Wikipédia relacionadas com as relações China-Taiwan para serem mais favoráveis à China.
Polarização política e acrofilia
Na verdade, a política intensifica essas dinâmicas. Nos EUA, a identidade política domina cada vez mais a forma como as pessoas definem os seus grupos sociais.
Os grupos políticos são motivados a definir “a verdade” de formas que os beneficiem e prejudiquem os seus oponentes políticos. É fácil ver como os esforços organizados para espalhar mentiras com motivação política e desacreditar verdades inconvenientes poderiam corromper a sabedoria das multidões nas notas da comunidade de Meta.
As redes sociais aceleram este problema através de um fenómeno chamado acrofilia, ou uma preferência pelo extremo. A pesquisa mostra que as pessoas tendem a se envolver com postagens um pouco mais extremas do que suas próprias opiniões.

evan_huang/Shutterstock
É mais provável que essas postagens cada vez mais extremas sejam negativas do que positivas. Os psicólogos sabem há décadas que o mal é mais envolvente do que o bem. Estamos programados para prestar mais atenção às experiências e informações negativas do que às positivas.
Nas redes sociais, isto significa que as publicações negativas – sobre violência, catástrofes e crises – recebem mais atenção, muitas vezes à custa de conteúdos mais neutros ou positivos.
Aqueles que expressam estas opiniões extremas e negativas ganham estatuto dentro dos seus grupos, atraindo mais seguidores e amplificando a sua influência. Com o tempo, as pessoas passam a considerar normais essas visões negativas um pouco mais extremadas, movendo lentamente suas próprias opiniões em direção aos pólos.
Um estudo recente de 2,7 milhões de publicações no Facebook e no Twitter descobriu que mensagens contendo palavras como “ódio”, “ataque” e “destruição” foram partilhadas e apreciadas com taxas mais elevadas do que quase qualquer outro conteúdo. Isto sugere que as redes sociais não estão apenas a amplificar opiniões extremas – estão a promover uma cultura de ódio fora do grupo que mina a colaboração e a confiança necessárias para que um sistema como as notas comunitárias funcione.
O caminho a seguir
A combinação de preconceitos de negatividade, preconceitos dentro/fora do grupo e acrofilia sobrecarrega um dos maiores desafios do nosso tempo: a polarização. Através da polarização, as visões extremas tornam-se normalizadas, minando o potencial de compreensão partilhada entre grupos divididos.
As melhores soluções, que examino no meu próximo livro, The Collective Edge, começam com a diversificação das nossas fontes de informação. Primeiro, as pessoas precisam de se envolver — e colaborar entre — diferentes grupos para quebrar as barreiras da desconfiança. Em segundo lugar, devem procurar informações em vários meios de comunicação e notícias fiáveis, e não apenas nas redes sociais.
No entanto, os algoritmos das redes sociais muitas vezes funcionam contra estas soluções, criando câmaras de eco e prendendo a atenção das pessoas. Para que as notas da comunidade funcionassem, estes algoritmos precisariam priorizar fontes de informação diversas e confiáveis.
Embora as notas da comunidade possam, teoricamente, aproveitar a sabedoria das multidões, o seu sucesso depende da superação destas vulnerabilidades psicológicas. Talvez uma maior consciência destes preconceitos possa ajudar-nos a conceber sistemas melhores – ou capacitar os utilizadores a utilizar notas da comunidade para promover o diálogo entre divisões. Só então as plataformas poderão aproximar-se da resolução do problema da desinformação.
.