News

As regras do Meta para verificar postagens VIP causaram ‘dano real’ e precisam ser ‘revisadas’, diz revisão | Notícias de ciência e tecnologia

.

No Facebook e no Instagram existem regras sobre o que pode e o que não pode ser postado.

Eles podem mudar de tempos em tempos, assim como a maneira como são aplicados por moderadores humanos e robôs. Mas, em teoria, as regras são as mesmas para cada um dos quase cinco bilhões de usuários do site.

A menos que você seja um político, uma celebridade ou um parceiro de negócios de Facebook e empresa controladora do Instagram meta.

Suas postagens, e as de cerca de 5,8 milhões de outros usuários influentes, são passadas por um canal VIP especial conhecido como verificação cruzada, o que lhes dá margem extra para quebrar as regras do Meta.

As isenções podem ser significativas. Se a postagem de um usuário normal for sinalizada pelo sistema de moderação automatizado, ela será removida imediatamente.

Se a postagem de um VIP for sinalizada, ela permanecerá ativa enquanto os moderadores humanos dão uma segunda (ou até uma terceira, quarta ou quinta) olhada nela.

Em setembro de 2011, por exemplo, o jogador de futebol brasileiro Neymar postou imagens íntimas de outra pessoa em seu Facebook e Instagram contas, sem, foi relatado, a permissão da pessoa envolvida.

O vídeo foi uma violação clara das políticas de conteúdo da Meta, que proíbe muitas formas relativamente leves de nudez. No entanto, de acordo com o The Guardian, ele ficou online por mais de um dia e recebeu 56 milhões de visualizações antes de ser retirado.

Neymar, do Paris St Germain, comemora seu primeiro gol
Imagem:
Neymar estava na lista do Meta para checagem

O motivo do atraso? Neymar, que mais tarde anunciou um negócio com a Meta para promover o Facebook Gaming, estava na lista de checagem cruzada, que lutava para lidar com um acúmulo na época.

Esse tipo de atraso, que dura em média cinco dias, subindo para 12 nos Estados Unidos e 17 na Síria, é um dos vários aspectos da checagem cruzada duramente criticados pelo Oversight Board do Meta, o “tribunal” interno semi-independente criado por Mark Zuckerberg para aconselhar sobre questões difíceis sobre moderação.

O conselho está revisando o programa desde o ano passado, quando a denunciante Frances Haugen revelou a escala do sistema ao vazar documentos internos da empresa para o Wall Street Journal.

Em um relatório publicado na terça-feira, o conselho pede à Meta que reformule o programa, argumentando que “prioriza usuários de valor comercial” sobre suas “responsabilidades de direitos humanos e valores da empresa”.

O sistema causou “danos reais”, disse o diretor do Conselho de Supervisão, Thomas Hughes, à Strong The One. No entanto, ele não conseguiu pedir que o sistema fosse dissolvido, dizendo “você precisa ter algum tipo de processo de revisão secundária”.

O conselho instou a Meta a revisar a checagem cruzada, tornando o processo mais rápido e transparente e reorientando-o para questões relacionadas aos direitos humanos, como a remoção acidental de material jornalístico.

Consulte Mais informação:
Mark Zuckerberg enfrenta um longo e doloroso caminho para o sucesso do metaverso
Facebook se defende após entregar mensagens de bate-papo para polícia dos EUA que investigava aborto

Ele diz que a Meta deve estabelecer critérios claros para o envolvimento na verificação cruzada e marcação pública de contas incluídas no sistema, principalmente atores estatais ou parceiros de negócios. Atualmente, mesmo aquelas pessoas sujeitas a verificação cruzada não sabem que estão listadas.

O relatório diz que a Meta prefere não cumprir suas regras, para evitar criar uma “percepção de censura” ou provocar “controvérsia pública” para parceiros comerciais, especialmente aqueles que podem criar problemas para executivos seniores da Meta.

No entanto, para evitar atrasos prejudiciais na moderação, o conselho sugere que o conteúdo sinalizado como “alta gravidade” na primeira revisão seja retirado enquanto é reavaliado.

A Meta não precisa seguir as sugestões do conselho e se recusou a fazê-lo em várias ocasiões notáveis, embora Hughes tenha dito que a empresa tende a implementar a maioria das recomendações. Neste caso, são 32.

“Eles não vão implementar todos eles, mas dada a taxa de implementação até o momento, acho que vão implementar a maioria”, disse Hughes. “O conselho acredita que essas recomendações são viáveis.”

No entanto, apesar de pedir à Meta para “aumentar radicalmente a transparência em torno da verificação cruzada”, o conselho lutou para gerar transparência total e muitos detalhes cruciais estão faltando em seu relatório.

O conselho não descobriu quem exatamente está na lista de verificação cruzada, apesar de “perguntar repetidamente”. Não foi possível confirmar o número exato de pessoas na lista, nem obter exemplos detalhados de postagens que foram verificadas.

“Essa divulgação limitada prejudica a capacidade do conselho de cumprir suas responsabilidades de supervisão”, reclamou o conselho em seu relatório.

O conselho disse anteriormente que a Meta “não foi totalmente aberta” sobre a verificação cruzada, deixando de mencionar o programa em relação ao presidente Trump e dizendo que era pequeno quando na verdade envolvia milhões de usuários.

Use o navegador Chrome para um player de vídeo mais acessível

É este o fim da ‘big tech’?

No entanto, embora a delatora Sra. Haugen tenha acusado a Meta de “mentir repetidamente” sobre o esquema, o Sr. investigar o programa.

Os críticos argumentaram que os problemas subjacentes da Meta eram grandes demais para serem corrigidos pelo Conselho de Supervisão, porque a implementação de suas sugestões mais substanciais exigiria que a empresa empregasse dezenas de milhares de moderadores humanos, especialmente em países fora dos Estados Unidos e Canadá.

O conselho descobriu que esses dois países respondem por 42% do conteúdo verificado, apesar de terem apenas 9% dos usuários ativos mensais.

“Os documentos de Haugen mostram um quadro de desigualdade sistêmica em que os EUA, apesar de todos os seus problemas de moderação, obtêm a maior parte dos recursos de moderação e quase todos os outros não recebem basicamente nada”, diz Cori Crider, diretor da Foxglove, que está processando a Meta em nome do ex-moderador de conteúdo do Facebook, Daniel Motaung.

“Até que esse desequilíbrio seja corrigido, não consigo ver como as opiniões do Conselho de Supervisão fazem muita diferença.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo