.
A Meta, empresa controladora do Facebook, Instagram, WhatsApp e outros serviços, anunciou que descontinuará seus programas de verificação de fatos de terceiros, começando nos EUA. Jornalistas e ativistas contra o discurso de ódio criticaram a decisão como uma tentativa de obter favores do novo presidente dos EUA, Donald Trump, mas pode haver uma razão ainda mais cínica. A estratégia da Meta poderia ser um movimento calculado para maior envolvimento e receita do usuário.
Esta decisão marca uma mudança significativa na forma como o gigante das redes sociais aborda a desinformação nas suas plataformas.
A justificativa oficial da Meta para encerrar sua verificação independente de fatos em favor de contribuições de crowdsourcing centra-se na promoção da liberdade de expressão. O presidente-executivo, Mark Zuckerberg, disse que a empresa busca reduzir a censura e concentrará seus esforços de fiscalização em conteúdo ilegal ou altamente prejudicial.
Esta medida está alinhada com discussões mais amplas entre governos, empresas de redes sociais, grupos da sociedade civil e o público sobre o equilíbrio entre liberdade de expressão e moderação de conteúdo. Estes debates tornaram-se urgentes, pois há cada vez mais provas de que existem preconceitos na moderação de conteúdos.
Por exemplo, um estudo de 2023 da Universidade de Cambridge discute como os preconceitos na moderação de conteúdo prejudicam os direitos culturais, sociais e económicos das comunidades marginalizadas.
O modelo de crowdsourcing incentiva a moderação participativa. Mas a verificação de fatos profissional pode ser mais eficaz para garantir a precisão e a consistência na moderação de conteúdo, devido à experiência e aos métodos rigorosos de verificadores de fatos treinados ou de modelos automatizados.
No entanto, as plataformas de mídia social, incluindo o Meta, obtêm receita com o envolvimento do usuário. O tipo de conteúdo sinalizado como enganoso ou prejudicial geralmente atrai mais atenção devido aos algoritmos da plataforma que ampliam seu alcance.
Um estudo de 2022 nos EUA, por exemplo, mostra que a polarização política aumenta o preconceito da verdade, que é a tendência humana de acreditar que as pessoas com quem se identificam estão a dizer a verdade. Isto pode levar a um maior envolvimento dos utilizadores com a desinformação, que é ainda amplificado por algoritmos que dão prioridade a conteúdos que chamam a atenção.
O que isso pode significar para o nosso ecossistema de informação digital?
1. Maior exposição à desinformação
Sem verificadores de factos profissionais, a prevalência de conteúdos falsos ou enganosos provavelmente aumentará. A moderação impulsionada pela comunidade pode ser inclusiva e descentralizada, mas tem as suas limitações.
Conforme mostrado pelas notas da comunidade de X, o sucesso da moderação crowdsourced depende tanto da participação de usuários informados quanto da obtenção de um consenso sobre as notas pelos usuários, nenhum dos quais é garantido. Sem mecanismos independentes de verificação de factos, os utilizadores poderão ter cada vez mais dificuldade em distinguir informação credível de informação incorrecta.

Camilo Concha/Shutterstock
2. O ónus da verificação
À medida que a supervisão profissional diminui, a responsabilidade pela avaliação da precisão do conteúdo recai sobre os usuários. Mas muitos utilizadores das redes sociais não têm a literacia mediática, o tempo ou os conhecimentos necessários para avaliar afirmações complexas. Esta mudança corre o risco de amplificar a propagação de falsidades, especialmente entre públicos que estão menos preparados para navegar no panorama da informação digital.
3. O risco de manipulação
A moderação crowdsourced é vulnerável a esforços coordenados por grupos organizados. Um estudo de 2018 examinou milhões de mensagens ao longo de vários meses para explorar como os bots sociais e as interações dos utilizadores contribuem para a disseminação de informações, especialmente conteúdos de baixa credibilidade. O estudo descobriu que os bots sociais desempenharam um papel significativo na amplificação de conteúdo de fontes não confiáveis, especialmente durante os estágios iniciais, antes de um artigo se tornar viral.
Esta evidência mostra que grupos organizados podem explorar a moderação crowdsourced para amplificar as narrativas que lhes convêm. Tal dinâmica poderia minar a credibilidade e a objectividade do processo de moderação, minando a confiança na plataforma. Milhões de usuários do X já migraram para seu rival Bluesky por motivos semelhantes.
4. Impacto no discurso público
A desinformação não controlada pode polarizar as comunidades, criar desconfiança e distorcer o debate público. Governos, académicos e grupos sociais já criticaram as plataformas de redes sociais pelo seu papel na amplificação de conteúdos divisivos, e a decisão da Meta poderá intensificar estas preocupações. A qualidade das discussões no Facebook e no Instagram pode diminuir à medida que a desinformação se espalha mais livremente, influenciando potencialmente a opinião pública e a elaboração de políticas.
Não existe uma solução perfeita para os desafios da moderação de conteúdo. A ênfase da Meta na liberdade de expressão ressoa em debates de longa data sobre o papel das empresas tecnológicas no policiamento de conteúdos online.
Os críticos da censura argumentam que a moderação excessivamente agressiva suprime discussões importantes. A Meta pretende criar uma plataforma que promova o diálogo aberto e minimize o risco de supressão, reduzindo a sua dependência de verificadores de factos.
No entanto, as compensações são claras. A liberdade de expressão sem salvaguardas adequadas pode permitir a proliferação desenfreada de conteúdos nocivos, incluindo teorias da conspiração, discursos de ódio e desinformação médica.
Alcançar o equilíbrio certo entre proteger a liberdade de expressão e garantir a integridade da informação é um desafio complexo e que está em evolução. O anúncio da Meta de mudar da verificação profissional de factos para a moderação comunitária de crowdsourcing corre o risco de minar este equilíbrio, ao amplificar a propagação da desinformação e do discurso de ódio.
.