.
É o lar de vídeos tutoriais de dança e esquetes cômicos virais. Mas também abriga conteúdo de automutilação e transtorno alimentar, com um algoritmo que foi chamado de “crack da mídia social”.
Agora, o comissário de informações concluiu que até 1,4 milhão de crianças menores de 13 anos tiveram acesso ao TikTok, com o cão de guarda acusando a empresa chinesa de não fazer o suficiente para verificar se crianças menores de idade não estavam usando o aplicativo.
“Há conteúdo de automutilação, há conteúdo sem sentido sobre curas para a saúde mental [conditions]”, disse Imran Ahmed, do Center for Countering Digital Hate, que produziu um relatório em dezembro passado sugerindo que o algoritmo do TikTok estava enviando conteúdo prejudicial a alguns usuários minutos após a inscrição.
Ele disse que descobriu que o aspecto mais perigoso é a prevalência absoluta de tal conteúdo em plataformas de mídia social. “A verdade é que eles estão sendo inundados com conteúdo que lhes dá uma visão extremamente distorcida de si mesmos, de seus corpos, de sua saúde mental e de como eles se comparam a outras pessoas”, acrescentou.
Ahmed disse que a pesquisa de sua organização sugere que mudar o nome de um usuário de “Sarah” para “Sarah Lose Weight” no TikTok pode resultar em seu algoritmo servindo 12 vezes mais conteúdo de automutilação.
“O algoritmo reconhece a vulnerabilidade e, em vez de vê-la como algo com o qual se deve ter cuidado, ele a vê como um ponto potencial de vício – de ajudar a maximizar o tempo na plataforma para aquela criança, oferecendo-lhe conteúdo que pode desencadear alguns dos as preocupações pré-existentes”.
Ahmed disse que a pesquisa do centro, baseada em usuários de 13 anos no Reino Unido, EUA, Canadá e Austrália, sugere que, cerca de dois minutos e meio após a criação de uma conta TikTok, os jovens podem seja empurrado conteúdo de automutilação – e conteúdo de transtorno alimentar dentro de oito.
Uma investigação mais recente, disse ele, sugeriu que um menino de 14 anos na plataforma provavelmente receberia conteúdo do virulenta misógino Andrew Tate em menos de três minutos após abrir uma conta.
“Isso é profundamente preocupante [because] o que sustenta ambos, é claro, são visões incrivelmente perigosas de como uma jovem deve ser e como um jovem deve se comportar e ver mulheres jovens. Existe uma misoginia fundamental que sustenta ambos.”
Segundo o comissário de informação, mais de 1 milhão de crianças menores de idade poderão ter sido expostas, tendo a plataforma recolhido e utilizado os seus dados pessoais. “Isso significa que seus dados podem ter sido usados para rastreá-los e traçar seu perfil, potencialmente fornecendo conteúdo prejudicial e inapropriado na próxima rolagem”, afirmou.
Um porta-voz do TikTok disse: “Muitas pessoas que lutam com sua saúde mental ou em uma jornada de recuperação vêm ao TikTok em busca de apoio, e pretendemos ajudá-los a fazê-lo com segurança.
após a promoção do boletim informativo
“Nossas diretrizes da comunidade são claras de que não permitimos a promoção, normalização ou glorificação de transtorno alimentar, suicídio ou conteúdo de autoagressão. Consultamos regularmente especialistas em saúde, removemos violações de nossas políticas e fornecemos acesso a recursos de suporte para quem precisa.
“Estamos abertos a feedback e escrutínio e procuramos nos envolver de forma construtiva com parceiros que tenham experiência nessas questões complexas, como fazemos com ONGs nos EUA e no Reino Unido.”
Ahmed acrescentou que o TikTok não é de forma alguma a única plataforma de mídia social que ele considera fazer muito pouco para policiar o conteúdo prejudicial compartilhado, descrevendo uma corrida armamentista entre outras para criar maneiras cada vez mais eficazes de manter a atenção dos usuários – mesmo que isso signifique colocar eles em risco.
.