technology

Molly Russell foi presa pelos algoritmos cruéis do Pinterest e Instagram | John Naughton

UMA Como o inquérito sobre a morte de Molly Russell chegou à sua conclusão na sexta-feira, o que continuava piscando como um sinal de néon defeituoso na mente de alguém era uma pergunta retórica feita por Alexander Pope em 1735: “Quem quebra uma borboleta em uma roda? ” Para Pope, era uma referência à “quebra na roda”, uma forma medieval de tortura na qual as vítimas tinham seus ossos longos quebrados por uma barra de ferro enquanto estavam amarradas a uma roda de Catarina, em homenagem a Santa Catarina que foi executada dessa maneira.

Para aqueles no inquérito, o significado da metáfora deve ter sido inconfundível, pois eles estavam ouvindo um relato de como um inocente e deprimido 14 Uma menina de 1 ano de idade foi quebrada por uma roda de Catherine contemporânea e impiedosa – os mecanismos de recomendação baseados em IA de duas empresas de mídia social, Instagram e Pinterest.

Isso a atraiu um vórtice de, como o legista colocou, “imagens, videoclipes e textos relativos ou preocupados com automutilação, suicídio ou que fossem de outra forma negativos ou deprimentes por natureza… alguns dos quais foram selecionados e fornecidos sem Molly os solicitar” . Alguns desses conteúdos romantizavam atos de automutilação dos jovens contra si mesmos, enquanto “outros conteúdos buscavam isolar e desencorajar a discussão com aqueles que poderiam ter ajudado”. Seu veredicto foi não suicídio, mas que “Molly Rose Russell morreu de um ato de automutilação enquanto sofria de depressão e os efeitos negativos da internet. conteúdo”.

Este inquérito teve um significado mais amplo do que o de um tardio – Molly morreu em novembro de 2017 – reconhecimento de uma injustiça angustiante. Em primeiro lugar, o veredicto do legista foi inédito no mundo, pois vinculou explicitamente os mecanismos de recomendação de mídia social como um fator causal em uma morte. Em segundo lugar, sua investigação inovou ao exigir que representantes das duas empresas americanas envolvidas (Meta, proprietária do Instagram e Pinterest) testemunhassem pessoalmente sob juramento. Claro que os dois que fizeram a viagem transatlântica – Elizabeth Lagone do Meta e Jud Hoffman do Pinterest – eram essencialmente apenas macacos representando seus respectivos tocadores de realejo no Vale do Silício; mas ainda assim, lá estavam eles em Londres, batendo em um postigo muito pegajoso. procedimento legal. E foi horrível – tanto que um psiquiatra infantil que testemunhou disse que até ele achou perturbador e angustiante. Depois, ele disse: “Houve períodos em que eu não consegui dormir bem por algumas semanas, então, tendo em mente que a criança viu isso por um período de meses, só posso dizer que ela estava – especialmente tendo em mente que ela era uma garota de 14 anos deprimida.”

O interrogatório dos dois representantes da empresa foi igualmente revelador. O cara do Pinterest cedeu cedo. O advogado da família Russell (Oliver Sanders KC), o levou pelos últimos 100 posts que Molly tinha visto antes de morrer. Hoffman expressou seu “profundo arrependimento por ela ter conseguido acessar parte do conteúdo que foi mostrado”. Ele admitiu que e-mails de recomendação enviados pelo Pinterest ao adolescente, como “10 pinos de depressão que você pode gostar”, continham “o tipo de conteúdo com o qual não gostaríamos que ninguém passasse muito tempo”, e que algumas das imagens lhe foram mostrados aqueles que ele não mostraria a seus próprios filhos. Previsivelmente, o representante da Meta era um osso duro de roer. Depois que foram fornecidas evidências de que das 16.300 postagens que Molly salvou, compartilhou ou curtiu no Instagram no período de seis meses antes de sua morte, 2.100 eram depressão, automutilação ou suicídio, Sanders perguntou a ela: “Você concorda conosco? que esse tipo de material não é seguro para crianças?”

Lagone respondeu que as políticas estavam em vigor para todos os usuários e descreveu as postagens vistas pelo tribunal como um “grito por ajuda.”

“Você acha que esse tipo de material é seguro para crianças?” Sanders continuou.

“Eu acho que é seguro para as pessoas poderem se expressar,” ela respondeu. Depois que Sanders fez a mesma pergunta novamente, Lagone disse: “Respeitosamente, eu não acho uma pergunta binária.”

Aqui o legista interveio e perguntou: “Então você estão dizendo sim, é seguro ou não, não é seguro?”

“Sim, é seguro”, respondeu Lagone.

De certa forma, este foi um momento de “pegadinha”, desnudando a realidade de que nenhum executivo da Meta pode admitir em público o que a empresa sabe em particular (como revelou a denunciante Frances Haugen), ou seja, que seu mecanismo de recomendação pode ter efeitos tóxicos e, no caso de Molly Russell, de risco de vida.

Tudo volta, no final, ao modelo de negócios de empresas como o Instagram. Eles prosperam e monetizam o engajamento do usuário – quanta atenção é conquistada por cada conteúdo, quão amplamente é compartilhado, por quanto tempo é visualizado e assim por diante. O mecanismo de recomendação é programado para monitorar o que cada usuário gosta e sugerir outros conteúdos que possam gostar. Então, se você está deprimido e tem pensamentos suicidas, a máquina lhe dará quantidades crescentes do mesmo.

Após a morte de Molly, sua família descobriu que ainda estava enviando essas coisas para a conta dela. A roda continuou a girar, mesmo depois de tê-la quebrado.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo