O pai de Molly Russell acusou as maiores empresas de mídia social do mundo de “miséria monetizar” depois que um inquérito decidiu que conteúdo online prejudicial contribuiu para a morte da jovem de 14 anos.
Ian Russell acusou Meta, dono do Facebook e Instagram, de guiar sua filha em uma “trilha demente de conteúdo sugador de vida”, depois que a decisão histórica aumentou a pressão regulatória sobre as empresas de mídia social.
)
O inquérito ouviu na sexta-feira que Molly, de Harrow, noroeste de Londres, havia visto grandes quantidades de conteúdo relacionado a suicídio, depressão, automutilação e ansiedade no Instagram e Pinterest antes de tirar a própria vida em Novembro de 2017.
Russell, 59, exortou Mark Zuckerberg a “ouvir as pessoas que usam sua plataforma, ouvir as conclusões que o legista deu e depois fazer algo a respeito”. Ele pediu que o governo implemente sua lei de segurança on-line há muito atrasada.
Executivos da Meta e do Pinterest que depuseram perante o legista sênior Andrew Walker durante a audiência de duas semanas pediram desculpas pelo que seus plataformas tinham mostrado Molly.
Molly “morreu de um ato de automutilação enquanto sofria de depressão e os efeitos negativos do conteúdo online”, Walker decidiu na sexta-feira.
Ele disse que algoritmos que selecionam a experiência de um usuário de mídia social enviaram conteúdo prejudicial a Molly que ela não havia solicitado. Ele disse que parte do conteúdo “romantizou” atos de automutilação e procurou desencorajar os usuários a procurar ajuda profissional.
Concluindo que não seria seguro considerar a causa da morte de Molly como suicídio , Walker disse que alguns dos sites que ela viu “não eram seguros” porque permitiam o acesso a conteúdo adulto que não deveria estar disponível para uma criança de 14 anos.
“É provável que o material acima visto por Molly, já sofrendo com uma doença depressiva e vulnerável devido à sua idade, a tenha afetado de forma negativa e tenha contribuído para sua morte de maneira mais do que mínima”, disse ele, entregando suas conclusões de fato em Tribunal do legista do norte de Londres.
Russell disse depois: “É hora de proteger nossos jovens inocentes, em vez de permitir que as plataformas priorizem seus lucros monetizando sua miséria.”
Ele criticou as provas apresentadas por Meta na audiência. Elizabeth Lagone, chefe de política de saúde e bem-estar da Meta, descreveu um lote de conteúdo de depressão, suicídio e automutilação visto por Molly antes de sua morte como “seguro” porque aderiu às diretrizes de conteúdo na época. Lagone se desculpou depois de admitir que algumas das postagens e vídeos vistos por Molly violaram as diretrizes.
Russell disse: “Se essa trilha demente de conteúdo sugador de vida fosse segura, minha filha Molly provavelmente ainda estar vivo e em vez de ser uma família enlutada de quatro, haveria cinco de nós ansiosos por uma vida cheia de propósito e promessa que estava pela frente para nossa adorável Molly.”
Ele disse A Meta teve que mudar sua “cultura corporativa tóxica”. Questionado se tinha uma mensagem para Zuckerberg, fundador e executivo-chefe da Meta, ele disse: “Ouça as pessoas que usam sua plataforma. Ouça as conclusões que o legista deu e faça algo a respeito.”
Um porta-voz da Meta disse que os pensamentos da empresa estavam com a família Russell e “todos os que foram afetados por este trágico morte”, e a empresa “considerava cuidadosamente” o relatório completo do legista.
Um porta-voz do Pinterest disse: “O Pinterest está comprometido em fazer melhorias contínuas para ajudar a garantir que a plataforma seja segura para todos e o relatório do legista será considerado com cuidado.”
O legista disse na quinta-feira que pretende emitir um aviso de prevenção de futuras mortes (PFD), que recomendará ações para tentar evitar a repetição do caso de Molly.
A secretária de cultura, Michelle Donelan, disse que o inquérito “mostrou o terrível fracasso das plataformas de mídia social em colocar o bem-estar das crianças em primeiro lugar”. Ela disse que a lei de segurança online, que exigirá que plataformas de tecnologia protejam crianças de conteúdo prejudicial, “é a resposta”.
Molly viu mais de 16.000 conteúdos no Instagram nos seis últimos meses de sua vida, dos quais 2.100 foram relacionados ao suicídio, automutilação e depressão. O inquérito ouviu que ela compilou um quadro de avisos digital no Pinterest com 469 imagens relacionadas a assuntos semelhantes.
O inquérito ouviu evidências de um psiquiatra infantil, Dr. em risco” pelo conteúdo que ela tinha visto. O diretor da escola secundária de Molly também prestou depoimento, descrevendo como era “quase impossível” acompanhar os riscos que as mídias sociais representam para os alunos.
O NSPCC descreveu a decisão como um primeiro e um “grande momento do tabaco” para as mídias sociais. “Pela primeira vez globalmente, foi decidido que o conteúdo que uma criança foi permitida e incentivada a ver por empresas de tecnologia contribuiu para sua morte”, disse Andy Burrows, chefe de política online de segurança infantil. Sir Peter Wanless, presidente-executivo da NSPCC, disse que a decisão “enviará ondas de choque pelo Vale do Silício”. ao projeto de lei de segurança online para criar um caminho para os pais enlutados acessarem o histórico de mídia social de seus filhos falecidos.
Falando fora do tribunal, Russell disse: “Na última semana, ouvimos muito sobre uma história trágica – a história de Molly. Infelizmente, há muitos outros afetados da mesma forma agora.
“Neste momento, eu só quero dizer, por mais sombrio que pareça, sempre há esperança. E se você estiver com dificuldades, fale com alguém de sua confiança ou com uma das muitas organizações de suporte maravilhosas, em vez de se envolver com conteúdo online que pode ser prejudicial. Por favor, faça o que puder para viver muito e permanecer forte.”
O pai de Molly encerrou uma entrevista coletiva após a audiência com uma homenagem à filha. Ele disse: “A última coisa que quero dizer é obrigado Molly, por ser minha filha. Obrigado.”








