.
O Meta está tendo dificuldades para moderar conteúdo relacionado à guerra entre Israel e Palestina, especialmente em hebraico, apesar das mudanças recentes nas políticas internas, revelaram novos documentos.
Diretrizes de política interna compartilhadas com o Guardian por um ex-funcionário da Meta que trabalhou na moderação de conteúdo descrevem um processo multicamadas para moderar conteúdo relacionado ao conflito. Mas os documentos indicam que a Meta, dona das plataformas Facebook, Instagram e WhatsApp, não tem os mesmos processos em vigor para avaliar a precisão da moderação de conteúdo hebraico e conteúdo árabe.
O funcionário, cujo nome o Guardian não divulgou por temores críveis de represálias profissionais, diz que as políticas da Meta que regem o discurso de ódio no que se refere à Palestina são injustas, uma avaliação ecoada por defensores palestinos.
Eles também disseram que alguns trabalhadores na linha de frente da batalha de informações em andamento em torno do conflito sentem-se cautelosos em levantar preocupações por medo de retaliações, alegações ecoou em uma carta recente assinada por mais de 200 trabalhadores da Meta. Essas condições, disse o ex-funcionário, dão a impressão de que as prioridades da empresa “não são sobre realmente garantir que o conteúdo seja seguro para a comunidade”.
Os documentos, atuais até esta primavera, surgem enquanto a Meta e outras plataformas sociais enfrentam críticas por sua abordagem ao conflito divisivo, onde as escolhas de linguagem e moderação durante eventos de notícias de rápido movimento podem ter consequências terríveis. Em junho, uma coalizão de 49 organizações da sociedade civil e vários palestinos proeminentes enviaram à Meta uma carta acusando a empresa de “ajudar e encorajar governos em genocídio” por meio de suas políticas de moderação de conteúdo.
“Quando vozes palestinas são silenciadas nas plataformas Meta, isso tem uma consequência muito direta nas vidas palestinas”, disse Cat Knarr, da Campanha dos EUA pelos Direitos Palestinos, que organizou a carta. “As pessoas não ouvem sobre o que está acontecendo na Palestina, mas ouvem propaganda que desumaniza os palestinos. As consequências são muito perigosas e muito reais.”
A disparidade na moderação de conteúdo por idioma é uma crítica de longa data ao Meta, como a denunciante do Facebook, Frances Haugen, declarou perante um comitê do Senado dos EUA que, embora apenas 9% dos usuários da gigante das redes sociais fossem falantes de inglês, 87% de seus gastos com desinformação eram dedicados a essa categoria.
Os documentos de orientação de conteúdo, emitidos após o ataque de 7 de outubro a Israel pelo Hamas e a guerra em Gaza, esclarecem uma variedade de decisões de política de moderação no Meta.
Entre elas estão as políticas da empresa sobre discurso de ódio e o movimento de boicote. As políticas exigem a remoção das declarações “boicote lojas judaicas” e “boicote lojas muçulmanas”, mas permitem a frase “boicote lojas árabes”, de acordo com documentos internos.
Tracy Clayton, porta-voz da Meta, disse que “no contexto e durante a duração desta crise”, a política da Meta é remover pedidos de boicote baseados apenas em religião, mas permitir pedidos de boicote de empresas “com base em características protegidas, como nacionalidade”, já que geralmente são “associados a discursos políticos ou pretendidos como uma forma de protesto contra um governo específico”.
Como tal, o porta-voz disse que as frases “boicote lojas israelenses” ou “boicote lojas árabes” são permitidas. A política, conforme descrita em documentos internos, é mais específica, afirmando que uma frase como “nenhum produto israelense deve ser permitido aqui até que parem de cometer crimes de guerra” é permitida, assim como “boicote lojas árabes”.
Esta política ressalta que a Meta “não tem uma compreensão diferenciada ou precisa da região”, argumentou Nadim Nashif, fundador e diretor da 7amleh, uma organização sem fins lucrativos que defende os direitos digitais palestinos.
“A identidade árabe é composta de pessoas de toda a região de muitos países diferentes, enquanto a identidade israelense é composta de indivíduos de um estado-nação que está ocupando e oprimindo os palestinos, como um subconjunto da população árabe”, disse ele. “O enquadramento da Meta mostra inerentemente um viés em direção a Israel por esse motivo.”
Avaliando a eficácia da moderação do discurso de ódio em hebraico
Os documentos recentes também oferecem uma nova janela para a capacidade do Meta de medir a qualidade de sua própria moderação de conteúdo em árabe e hebraico.
A Meta tem um sistema em vigor para rastrear a “precisão da política” de aplicação de conteúdo em muitos idiomas. Isso significa que o sistema de qualidade da empresa – usando especialistas humanos – analisa o trabalho dos moderadores e sistemas da linha de frente e classifica o quão bem as decisões tomadas por esses moderadores e sistemas se alinham com as políticas da Meta sobre o que é e o que não é permitido no Facebook e no Instagram. O programa de medição de qualidade então gera uma pontuação de precisão rastreando o desempenho da moderação de conteúdo em todas as plataformas, de acordo com os documentos e o ex-funcionário.
O sistema de revisão está em vigor para idiomas como inglês, espanhol, árabe e tailandês. Mas para uma parte das decisões de conteúdo em hebraico, tal pontuação foi declarada “inviável” devido à “ausência de tradução”, mostram os documentos. O ex-funcionário disse que isso se deveu à falta de revisores humanos com experiência em hebraico.
A Meta diz que tem “vários sistemas em vigor” para medir a precisão da aplicação da moderação de conteúdo em hebraico, incluindo a avaliação por revisores e auditores de língua hebraica.
No entanto, os documentos mostram que não há nenhuma medida de “precisão política” para a aplicação da língua hebraica, e o ex-funcionário disse que, como o hebraico não está integrado ao sistema, esse tipo de revisão de aplicação no mercado hebraico é feito em uma base “ad hoc”, diferentemente do mercado árabe.
Essa discrepância significa que a empresa revisa o conteúdo na língua oficial de Israel de forma menos sistemática do que a da Palestina, disse o ex-funcionário. A diferença implica “um viés sobre como eles estão aplicando o conteúdo”, potencialmente levando à aplicação excessiva de conteúdo em língua árabe, eles acrescentaram.
O hebraico, falado por aproximadamente 10 milhões de pessoas, compõe uma fração muito menor de postagens nas redes sociais do Meta do que o árabe, falado por cerca de 400 milhões de pessoas. Os críticos dizem que, devido à guerra em andamento, mais atenção é necessária ao conteúdo em hebraico, e o Meta já enfrentou questões sobre sua moderação de postagens em hebraico antes. Uma análise independente de 2022 encomendado pela gigante da tecnologia concluiu que seu sistema de moderação havia penalizado os falantes de árabe com mais frequência do que os de hebraico um momento de tensões elevadas no conflito de 2021 entre Israel e Palestina em 2021 – mesmo quando se considera a disparidade no número de falantes. Os sistemas da Meta sinalizaram automaticamente o conteúdo em árabe em uma taxa “significativamente maior” do que o conteúdo em hebraico, de acordo com a análise. As políticas da empresa “podem ter resultado em viés não intencional por meio de maior aplicação excessiva de conteúdo em árabe em comparação ao conteúdo em hebraico”, diz o relatório.
A disparidade foi parcialmente atribuída ao fato de que a Meta, na época, havia implementado um “classificador de discurso hostil” em árabe, permitindo a detecção automática de conteúdo violador – como discurso de ódio e apelos à violência – mas não havia feito o mesmo para conteúdo em hebraico. Esses classificadores permitem que a linguagem ofensiva seja removida automaticamente. A falta de um classificador em hebraico significava que o conteúdo em árabe provavelmente seria removido algoritmicamente com mais frequência, disse a análise. Em resposta ao relatório, a Meta lançou um classificador de aprendizado de máquina em hebraico que detecta “discurso hostil”. Um estudo mais recente da Human Rights Watch, publicado em dezembro de 2023, alegado “censura sistêmica de conteúdo palestino no Instagram e no Facebook”.
Os fiscais do Meta dizem que os novos documentos analisados pelo Guardian mostram que, mesmo com os novos classificadores da língua hebraica, há menos esforço para garantir que essas medidas mais recentes sejam eficazes, permitindo que tais disparidades na aplicação persistam.
“Esta reportagem mostra que a Meta não está levando suas responsabilidades de moderação de conteúdo a sério”, disse Nashif do 7amleh.
Classificando o discurso de ódio algoritmicamente
Além de classificadores de discurso hostil e outros indicadores, a Meta usa coleções de imagens, frases e vídeos que permitem que suas ferramentas de aprendizado de máquina sinalizem e removam automaticamente postagens que violam suas políticas. Os moderadores algorítmicos combinam o conteúdo postado em redes sociais com o material nos bancos de conteúdo, que foi previamente julgado como quebrando as regras da Meta.
O ex-funcionário disse que seus colegas notaram que várias imagens usadas em um banco criado após os eventos de 7 de outubro foram adicionadas erroneamente, mas que não havia “nenhum processo” para remover imagens daquele banco, novamente levando a uma potencial aplicação excessiva de conteúdo relacionado a ambos os lados do conflito Israel-Palestina.
A Meta contestou essa caracterização, afirmando que era “relativamente fácil remover um item de um banco se adicionado por engano”. Os documentos, no entanto, afirmam que na época não havia “nenhum processo atual para remover clusters não violadores após chamadas de política que tornam o conteúdo previamente armazenado benigno”, levando à “aplicação excessiva” do conteúdo.
O ex-funcionário disse que a Meta tem sido receptiva às reclamações de trabalhadores de moderação de conteúdo no passado. No entanto, muitos funcionários expressaram “medo de retaliação” ou de serem vistos como antissemitas se alguém fizesse uma reclamação sobre a aplicação excessiva de conteúdo pró-Palestina em árabe, apesar do histórico da empresa, eles disseram.
“Se eu levantasse isso diretamente, sinto que meu emprego estaria em jogo – é muito óbvio a posição da empresa sobre essa questão”, disse o trabalhador.
Em uma carta aberta, mais de 200 funcionários da Meta levantaram preocupações semelhantes, escrevendo que a Meta “censurou, rejeitou e/ou penalizou” trabalhadores que se manifestaram contra as políticas da empresa relacionadas à Palestina em fóruns internos. Os trabalhadores disseram que “qualquer menção à Palestina é retirada” desses fóruns.
Clayton, o porta-voz da Meta, disse que a empresa ofereceu “muitos canais estabelecidos” para os funcionários levantarem preocupações e declarou que a Meta trabalhou para garantir que o conteúdo em suas plataformas fosse seguro para os usuários – incluindo US$ 20 bilhões investidos em “segurança e proteção” desde 2016 e 40.000 pessoas trabalhando no espaço. A Meta postou receita do ano inteiro para 2023 foi de US$ 134,9 bilhões. Em seu relatório de lucros mais recente, postado receita total de US$ 39,07 bilhões no segundo trimestre de 2024.
Além da carta recente entregue pelos funcionários da Meta, a empresa recebeu uma petição separada em junho da US Campaign for Palestinian Rights, uma organização de advocacia pró-Palestina, e 49 outras organizações da sociedade civil. Os grupos pediram o fim do que eles alegam ser censura de conteúdo pró-Palestina, falta de transparência em torno de políticas de moderação e permissividade em relação ao discurso de ódio anti-Palestina nas redes sociais da Meta.
No final de 2023, a senadora de Massachusetts Elizabeth Warren enviou uma carta à Meta solicitando mais informações sobre as políticas da empresa em torno do conflito e como elas são aplicadas — perguntando especificamente se e quando a empresa sinalizou automaticamente conteúdo relacionado a certos tópicos ao longo do tempo. A carta enviada em junho à Meta por quase 50 organizações da sociedade civil mira na empresa de mídia social por problemas semelhantes.
Em resposta à recente carta dos funcionários, Clayton disse que a Meta “aceita[s] alegações de ter políticas de aplicação de conteúdo que impactam desproporcionalmente as vozes pró-Palestina são muito sérias”.
“Nosso objetivo foi – e continua sendo – dar voz a todos e ajudar a garantir que nossas plataformas continuem sendo espaços seguros para as pessoas que as usam”, disse ele.
.








