.

Lalani Erika Walton, de oito anos, queria se tornar “famosa no TikTok”. Em vez disso, ela acabou morta.
A dela é uma das duas tragédias que levaram a um par de processos por homicídio culposo arquivados na sexta-feira no Tribunal Superior do Condado de Los Angeles contra o gigante da mídia social. O aplicativo da empresa alimentou Lalani e Arriani Jaileen Arroyo, 9, com vídeos associados a uma tendência viral chamada desafio do apagão, no qual os participantes tentam se sufocar na inconsciência, alegam os casos; ambas as meninas morreram depois de tentar participar.
É uma indicação de que o TikTok — o aplicativo de vídeo altamente popular e com curadoria algorítmica que tem sua sede nos EUA em Culver City – é um produto defeituoso, disse o Social Media Victims Law Center, o escritório de advocacia por trás dos processos e um auto-descrito “recurso legal para pais de crianças prejudicadas pelas mídias sociais”. O TikTok empurrou vídeos de Lalani e Arriani da tendência perigosa, foi projetado para ser viciante e não ofereceu às meninas ou aos pais recursos de segurança adequados, disse o Law Center, tudo em nome da maximização da receita publicitária.
O TikTok não respondeu imediatamente a um pedido de comentário.
As mortes das meninas têm semelhanças impressionantes.
Lalani, que era do Texas, era uma ávida TikToker, postando vídeos de si mesma dançando e cantando na rede social na esperança de se tornar viral, de acordo com a denúncia do Law Center.
Em algum momento de julho de 2021, seu algoritmo começou a exibir vídeos do desafio de auto-estrangulamento, disse o processo. No meio daquele mês, Lalani disse à família que os hematomas que apareceram em seu pescoço foram resultado de uma queda, disse o processo; logo depois, ela passou um pouco de um passeio de carro de 20 horas com sua madrasta assistindo o que sua mãe mais tarde descobriria que eram vídeos de desafio de blecaute.
Quando eles voltaram da viagem, a madrasta de Lalani disse a ela que os dois poderiam nadar mais tarde, e depois tiraram um breve cochilo. Mas ao acordar, segundo o terno, sua madrasta foi ao quarto de Lalani e encontrou a garota “pendurada na cama com uma corda no pescoço”.
A polícia, que pegou o telefone e o tablet de Lalani, disse mais tarde à madrasta que a menina estava assistindo a vídeos de desafio de blecaute “repetidamente”, disse o processo.
Lalani estava “acreditando que, se ela postasse um vídeo de si mesma fazendo o Blackout Challenge, ela se tornaria famosa”, disse, mas a jovem “não apreciava ou entendia a natureza perigosa do que o TikTok a encorajava a fazer. .”
Arriani, de Milwaukee, também adorava postar vídeos de música e dança no TikTok, disse o processo. Ela “gradualmente tornou-se obsessiva” sobre o aplicativo, disse.
Em 26 de fevereiro de 2021, o pai de Arriani estava trabalhando no porão quando seu irmão mais novo Edwardo desceu e disse que Arriani não estava se movendo. Os dois irmãos estavam brincando juntos no quarto de Arriani, disse o processo, mas quando o pai correu para ver como ela estava, encontrou sua filha “pendurada na coleira do cachorro da família”.
Arriani foi levado às pressas para o hospital e colocado em um ventilador, mas era tarde demais – a menina havia perdido todas as funções cerebrais, segundo o processo, e acabou sendo retirada do suporte de vida.
“O produto do TikTok e seu algoritmo direcionaram desafios e vídeos extremamente e inaceitavelmente perigosos” para o feed de Arriani, disse o processo, incentivando-a “a se envolver e participar do TikTok Blackout Challenge”.
Lalani e Arriani não são as primeiras crianças a morrer ao tentar o desafio do apagão.
Nylah Anderson, 10, acidentalmente se enforcou na casa de sua família enquanto tentava imitar a tendência, de acordo com um processo que sua mãe recentemente arquivado contra o TikTok na Pensilvânia.
UMA número do outro criançascom idades entre 10 e 14 anos, teriam morrido em circunstâncias semelhantes ao tentar o desafio do apagão.
“O TikTok sabia inquestionavelmente que o mortal Blackout Challenge estava se espalhando por seu aplicativo e que seu algoritmo estava alimentando especificamente o Blackout Challenge para crianças”, disse a queixa do Social Media Victims Law Center, acrescentando que a empresa “sabia ou deveria saber que não tomar medidas imediatas e significativas para extinguir a propagação do mortal Blackout Challenge resultaria em mais ferimentos e mortes, especialmente entre crianças.”
No passado, o TikTok negou que o desafio do apagão seja uma tendência do TikTok, apontando para instâncias pré-TikTok de crianças morrendo de “jogo de asfixia” e dizendo ao Washington Post que a empresa bloqueou #BlackoutChallenge de seu mecanismo de busca.
Esses tipos de desafios virais, geralmente construído em torno de uma hashtag que facilita a localização de todas as entradas em um só lugar, são uma grande parte da cultura do usuário do TikTok. A maioria é inócua, muitas vezes incentivando os usuários a dublar uma música específica ou imitar um movimento de dança.
Mas alguns se mostraram mais arriscados. Lesões foram relatadas a partir de tentativas de recriar acrobacias conhecidas como o desafio de fogo, desafio caixa de leite, Desafio Benadryl, desafio quebra crânio e desafio da colher secaentre outros.
Também não é um problema restrito ao TikTok. No passado, o YouTube foi o lar de tendências como o Desafio do Tide Pod e desafio da Canela, ambos os quais especialistas alertaram podem ser perigosos. Em 2014, a lenda urbana nativa da internet conhecida como Slenderman levou duas meninas pré-adolescentes a esfaquear um amigo 19 vezes.
Embora as plataformas de mídia social sejam acusadas de hospedar conteúdo socialmente prejudicial – incluindo discurso de ódio, calúnia e desinformação – uma lei federal chamada Seção 230 torna difícil processar as próprias plataformas. De acordo com a Seção 230, aplicativos e sites desfrutam de ampla latitude para hospedar conteúdo gerado pelo usuário e moderá-lo como acharem melhor, sem ter que se preocupar em ser processado por isso.
A reclamação do Law Center tenta contornar esse firewall enquadrando as mortes do desafio do apagão como uma falha no design do produto, em vez de moderação de conteúdo. O TikTok é o culpado por desenvolver um produto de mídia social com curadoria algorítmica que expôs Lalani e Arriani a uma tendência perigosa, diz a teoria – um argumento de segurança do consumidor que é muito menos controverso do que as questões espinhosas sobre liberdade de expressão e censura que poderiam surgir se o processo fosse enquadrar os erros do TikTok como os de um editor.
Um “produto de mídia social excessivamente perigoso … que é projetado para viciar crianças pequenas e o faz, que as direciona afirmativamente para o perigo, não é conteúdo de terceiros imunizado, mas sim conduta volitiva em nome das empresas de mídia social”, disse Matthew Bergman, o advogado que fundou a empresa.
Ou, como dizia a denúncia: os demandantes “não estão alegando que o TikTok é responsável pelo que terceiros disseram ou fizeram, mas pelo que o TikTok fez ou não fez”.
Em grande parte, os processos fazem isso criticando o algoritmo do TikTok como viciante, com uma interface semelhante a um caça-níqueis que alimenta os usuários com um fluxo infinito e personalizado de vídeos na esperança de mantê-los online por períodos cada vez mais longos.
“O TikTok projetou, fabricou, comercializou e vendeu um produto de mídia social que era excessivamente perigoso porque foi projetado para ser viciante para os usuários menores”, disse a denúncia, acrescentando que os vídeos que foram veiculados aos usuários incluem “prejudiciais e exploradores”. uns. “O TikTok tinha o dever de monitorar e avaliar o desempenho de seu algoritmo e garantir que não direcionasse crianças vulneráveis para vídeos perigosos e mortais.”
Documentos vazados indicam que a empresa vê a retenção de usuários e o tempo que os usuários permanecem no aplicativo como principais métricas de sucesso.
É um modelo de negócios que muitas outras plataformas da Web de uso gratuito implantam – quanto mais tempo os usuários passam na plataforma, mais anúncios a plataforma pode vender – mas que está cada vez mais sendo criticado, especialmente quando crianças e seus cérebros ainda em desenvolvimento estão envolvidos.
Um par de contas fazendo seu através o Legislativo da Califórnia tem como objetivo reformular o cenário de como as plataformas de mídia social envolvem os usuários jovens. Uma delas, a Lei do Dever para com as Crianças da Plataforma de Mídias Sociais, capacitar os pais processar plataformas da web que viciam seus filhos; o outro, a Lei do Código de Design Apropriado para a Idade da Califórnia, exigiria que as plataformas da web oferecessem às crianças privacidade e segurança proteções.
Bergman passou grande parte de sua carreira representando vítimas de mesotelioma, muitas das quais adoeceram devido à exposição ao amianto. O setor de mídia social, disse ele, “faz com que a indústria do amianto pareça um bando de meninos de coral”.
Mas por pior que as coisas estejam, ele disse, casos como o dele contra o TikTok também oferecem alguma esperança para o futuro.
Com o mesotelioma, ele disse, “sempre foi uma compensação por erros passados”. Mas processos contra empresas de mídia social oferecem “a oportunidade de parar de fazer as pessoas se tornarem vítimas; para realmente implementar a mudança; para salvar vidas”.
.








