technology

Sistema de moderação do Facebook favorece ‘parceiros de negócios’, diz conselho de supervisão | meta

.

Uma política do Facebook projetada para proteger usuários de alto perfil da moderação foi estruturada para satisfazer os interesses comerciais da empresa, descobriu a “corte suprema” da Meta, e não priorizou a proteção da liberdade de expressão e dos direitos civis na plataforma.

O conselho de supervisão, que examina as decisões de moderação no Facebook e no Instagram, disse que o sistema de “verificação cruzada” das plataformas parece favorecer “parceiros de negócios” – como usuários, incluindo celebridades que geram dinheiro para a empresa – enquanto jornalistas e organizações da sociedade civil “caminhos menos claros” para acessar o programa.

“Embora a Meta tenha dito ao conselho que a verificação cruzada visa promover os compromissos da Meta com os direitos humanos, descobrimos que o programa parece mais diretamente estruturado para satisfazer as preocupações comerciais”, disse o conselho, acrescentando que tinha preocupações sobre a “falta de transparência” em torno o programa.

Ele disse que a verificação cruzada concede a certos usuários maior proteção do que outros porque o conteúdo dos usuários na lista de verificação cruzada pode permanecer ativo enquanto é examinado por moderadores humanos que aplicam a “gama completa” de políticas de conteúdo. A Meta o descreveu como uma “estratégia de prevenção de erros” que protegeu usuários importantes de remoções de conteúdo errôneo.

Os usuários comuns, por outro lado, têm muito menos probabilidade de ter seu conteúdo alcançado por revisores que podem aplicar toda a gama de diretrizes de conteúdo da Meta.

O conselho disse que a “contagem de celebridades ou seguidores” de um usuário não deve ser o único critério para receber a proteção especial oferecida pelo programa. A Meta admitiu ao conselho que os critérios para incluir “parceiros de negócios” na lista incluíam o valor da receita que eles geraram.

A Meta também disse ao conselho que isenta alguns conteúdos de remoções. A empresa descreveu esse sistema como “correções técnicas” e disse que realiza cerca de 1.000 por dia. O conselho recomendou que a Meta conduzisse auditorias de ações de fiscalização que estão bloqueadas no sistema.

O conselho acrescentou que o sistema de correções técnicas é visto como uma “lista de permissões” ou “lista de permissões”. Em setembro do ano passado, o Wall Street Journal, usando documentos divulgados pela denunciante Frances Haugen, informou que o jogador de futebol brasileiro Neymar havia respondido a uma acusação de estupro em 2019 postando vídeos no Facebook e no Instagram se defendendo, que incluíam mostrar aos telespectadores sua correspondência no WhatsApp com seu acusador. Os clipes do WhatsApp – também de propriedade da Meta – incluíam o nome da acusadora e fotos dela nua.

Os moderadores foram impedidos de remover o vídeo por mais de um dia, de acordo com o WSJ, enquanto a punição normal de desabilitar suas contas não foi implementada. Um documento interno visto pelo WSJ disse que as contas de Neymar foram deixadas ativas depois de “escalar o caso para a liderança”. Neymar negou a acusação de estupro e nenhuma acusação foi feita contra o jogador.

Citando o exemplo de Neymar, o conselho disse que, apesar do Meta dizer que tinha um sistema para priorizar as decisões de conteúdo, alguns conteúdos ainda permaneceram online por “períodos significativos” enquanto isso acontecia.

“No caso de Neymar, é difícil entender como imagens íntimas não consensuais postadas em uma conta com mais de 100 milhões de seguidores não teriam chegado à frente da fila para uma análise rápida e de alto nível se algum sistema de priorização tivesse existido. está em vigor”, disse o conselho.

O conselho continuou dizendo que a categoria de “parceiros de negócios” de verificação cruzada inclui usuários que provavelmente gerarão dinheiro para a empresa, seja por meio de relacionamentos comerciais formais ou atraindo usuários para plataformas Meta. Ele disse que, devido à “percepção de censura”, preferia manter o conteúdo atualizado a removê-lo. O conselho disse que a categoria de parceiro de negócios provavelmente incluirá grandes empresas, partidos e campanhas políticas e celebridades.

O conselho fez 32 recomendações. Eles incluíram: remoção de proteção especial para contas comercialmente importantes se quebrarem as regras de conteúdo com frequência; priorizar a moderação de postagens importantes para os direitos humanos; e violação de conteúdo de usuários de verificação cruzada que seja de “alta gravidade” deve ser removido ou ocultado enquanto as revisões estão ocorrendo.

O conselho disse que a Meta via o risco de uma decisão de conteúdo resultar em “escalada nos níveis mais altos” para um executivo-chefe ou diretor de operações de uma organização como altamente sensível. Esse conteúdo carrega uma etiqueta de “gravidade extremamente alta” no sistema de verificação cruzada. Ele disse que a Meta, portanto, parecia mais focada nas consequências relacionadas aos negócios para suas decisões do que nas relacionadas aos direitos humanos.

O presidente de assuntos globais da Meta, Nick Clegg, disse que, para “atender totalmente” às recomendações do conselho, a empresa responderia em 90 dias.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo