.
Os poderosos algoritmos usados pelo Facebook e Instagram têm sido cada vez mais acusados de amplificar a desinformação e a polarização política. Mas uma série de estudos inovadores publicados na quinta-feira sugerem que enfrentar esses desafios exigirá mais do que apenas ajustar o software das plataformas.
Os quatro trabalhos de pesquisa, publicados na Science and Nature, também revelam a extensão das câmaras de eco político no Facebook, onde conservadores e liberais dependem de fontes divergentes de informação, interagem com grupos opostos e consomem quantidades distintas de desinformação.
Com a cooperação da Meta, os pesquisadores por trás dos estudos analisaram dados de milhões de usuários do Facebook e Instagram relacionados à eleição presidencial dos EUA em 2020 e pesquisaram usuários específicos que concordaram em participar.
Uma área de investigação centrou-se nos algoritmos dos feeds de mídia social e em como eles afetam as atitudes e o comportamento dos eleitores. Os algoritmos sugerem conteúdo para os usuários fazendo suposições com base nos grupos, amigos, tópicos e manchetes em que um usuário clicou no passado. Embora se destaquem em manter os usuários engajados, os algoritmos foram criticados por amplificar a desinformação e o conteúdo ideológico que piorou as divisões políticas nos EUA. As propostas para regulamentar esses sistemas estão entre as ideias mais discutidas para abordar o papel das mídias sociais na disseminação de desinformação e no incentivo à polarização.
Mas quando os pesquisadores mudaram os algoritmos para alguns usuários durante a eleição de 2020, eles viram pouca diferença.
“Descobrimos que os algoritmos são extremamente influentes nas experiências das pessoas na plataforma e que há segregação ideológica significativa na exposição de notícias políticas”, disse Talia Jomini Stroud, diretora do Centro de Engajamento de Mídia da Universidade do Texas em Austin e uma das líderes dos estudos.
“Também descobrimos que propostas populares para mudar os algoritmos de mídia social não influenciaram as atitudes políticas”.
Quando os pesquisadores substituíram o algoritmo por uma simples lista cronológica de postagens de amigos – uma opção que o Facebook disponibilizou recentemente para os usuários – não houve impacto mensurável na polarização. Quando eles desativaram a opção de compartilhamento do Facebook, que permite aos usuários compartilhar postagens virais rapidamente, os usuários viram significativamente menos notícias de fontes não confiáveis e menos notícias políticas em geral, mas não houve mudanças significativas em suas atitudes políticas.
Da mesma forma, reduzir o conteúdo que os usuários do Facebook obtêm de contas com o mesmo alinhamento ideológico não teve efeito significativo na polarização, suscetibilidade à desinformação ou visões extremistas.
Juntos, os resultados sugerem que os usuários do Facebook buscam conteúdo que se alinhe com suas opiniões e que os algoritmos ajudam “tornando mais fácil para as pessoas fazerem o que estão inclinados a fazer”, de acordo com David Lazer, professor da Northeastern University que trabalhou em todos os quatro papéis.
A eliminação total do algoritmo reduziu drasticamente o tempo que os usuários gastam no Facebook ou no Instagram, aumentando seu tempo no TikTok, YouTube ou outros sites, mostrando o quão importante esses sistemas são para a Meta no cenário cada vez mais lotado de mídia social.
O trabalho também revelou a extensão das diferenças ideológicas dos usuários do Facebook e as diferentes formas que conservadores e liberais usam a plataforma para obter notícias e informações sobre política.
Os usuários conservadores do Facebook são mais propensos a consumir conteúdo rotulado como desinformação pelos verificadores de fatos. Eles também têm mais fontes para escolher. A análise descobriu que, entre os sites incluídos em postagens políticas no Facebook, muito mais atendem a conservadores do que a liberais.
No geral, 97% das fontes de notícias políticas no Facebook identificadas pelos verificadores de fatos como espalhando desinformação eram mais populares entre os conservadores do que entre os liberais.
Para conduzir a análise, os pesquisadores obtiveram acesso sem precedentes aos dados do Facebook e Instagram da eleição de 2020 por meio de uma colaboração com a Meta, proprietária das plataformas. Os pesquisadores dizem que a Meta não exerceu controle sobre suas descobertas.
Os autores dos artigos reconheceram algumas limitações de seu trabalho. Embora tenham descoberto que mudar os algoritmos do Facebook teve pouco impacto na polarização, eles observaram que o estudo cobriu apenas alguns meses durante a eleição de 2020 e, portanto, não pode avaliar o impacto de longo prazo que os algoritmos tiveram.
Eles também observaram que a maioria das pessoas obtém suas notícias e informações de várias fontes – televisão, rádio, internet e boca a boca – e que essas interações também podem afetar as opiniões das pessoas.
Katie Harbath, ex-diretora de políticas públicas do Facebook, disse que a pesquisa mostra a necessidade de uma maior pesquisa sobre mídia social e desafia suposições sobre o papel que a mídia social desempenha na democracia americana. Harbath não estava envolvido na pesquisa.
“As pessoas querem uma solução simples e o que esses estudos mostram é que não é simples”, disse Harbath, membro do Bipartisan Policy Center e diretor-executivo da empresa de tecnologia e política Anchor Change. “Para mim, isso reforça que, quando se trata de polarização ou das crenças políticas das pessoas, há muito mais do que mídia social envolvido nisso.”
O presidente da Meta para assuntos globais, Nick Clegg, argumentou que as descobertas mostraram “há poucas evidências de que os principais recursos das plataformas da Meta causem polarização ‘afetiva’ prejudicial ou tenham qualquer impacto significativo nas principais atitudes, crenças ou comportamentos políticos”.
Mas a realidade é mais complicada do que isso, de acordo com os críticos que dizem que as descobertas não devem deixar as empresas de mídia social livres para combater a desinformação.
“Os estudos que a Meta endossa, que parecem fragmentados em pequenos períodos de amostra, não devem servir como desculpas para permitir que mentiras se espalhem”, disse Nora Benavidez, conselheira sênior do grupo de direitos civis digitais Free Press, ao Washington Post. “As plataformas de mídia social deveriam se intensificar antes das eleições, não inventar novos esquemas para se esquivar da responsabilidade.”
Frances Haugen, ex-funcionária do Facebook e delatora, criticou o momento da pesquisa, dizendo ao Post que ocorreu depois que o Meta adotou medidas de proteção eleitoral mais agressivas para lidar com a desinformação que antecedeu a eleição. E quando o experimento começou, muitos usuários já haviam se juntado a grupos que os inundariam com conteúdo questionável, disse ela.
Lazer, o professor nordestino, disse que a princípio ficou cético de que o Meta daria aos pesquisadores o acesso de que precisavam, mas ficou agradavelmente surpreso. Ele disse que as condições impostas pela empresa estavam relacionadas a preocupações legais e de privacidade razoáveis. Mais estudos da colaboração serão lançados nos próximos meses.
“Não há nenhum estudo como este”, disse ele sobre a pesquisa publicada na quinta-feira. “Tem havido muita retórica sobre isso, mas em muitos aspectos a pesquisa tem sido bastante limitada.”
.