.
Privar grupos de ódio online de serviços de rede – também conhecidos como deplatforming – não funciona muito bem, de acordo com boffins baseados no Reino Unido.
Em um recém-lançado papel de pré-impressãoAnh Vu, Alice Hutchings e Ross Anderson, da Universidade de Cambridge e da Universidade de Edimburgo, examinam os esforços para interromper o fórum de assédio Kiwi Farms e descobrem que as intervenções da comunidade e da indústria têm sido bastante ineficazes.
Seu estudo, realizado como legisladores em todo o mundo estão considerando políticas que aspiram a moderar o comportamento online ilegal ou indesejável, revela que a desplataforma tem apenas um impacto modesto e aqueles que administram sites nocivos permanecem livres para continuar assediando pessoas por meio de outros serviços.
“Usuários de plataforma podem reduzir os níveis de atividade e toxicidade de atores relevantes no Twitter e no Reddit, limitar a disseminação de desinformação conspiratória no Facebook e minimizar a desinformação e o discurso extremo no YouTube”, escrevem eles em seu artigo. “Mas a desplataforma muitas vezes tornou grupos e indivíduos de ódio ainda mais extremos, tóxicos e radicalizados”.
Como exemplos, eles citam como a proibição de r/incels do Reddit em novembro de 2017 levou à criação de dois domínios incel, que cresceram rapidamente. Eles também apontam como os usuários banidos do Twitter e do Reddit “exibem níveis mais altos de toxicidade ao migrar para o Gab”, entre outras situações semelhantes.
Os pesquisadores se concentram no desplataforma de Kiwi Farms, um fórum on-line onde os usuários participam de esforços para assediar figuras on-line proeminentes. Uma dessas pessoas era um streamer transgênero canadense conhecido como @keffals no Twitter e Twitch.
No início de agosto do ano passado, um membro do fórum Kiwi Farms supostamente enviou um aviso malicioso à polícia em London, Ontário, alegando que @keffals havia cometido assassinato e planejava mais violência, o que resultou em “golpeado – uma forma de ataque que tem provou ser letal em alguns casos.
Após mais doxxing, ameaças e assédio, @keffals organizou uma campanha bem-sucedida para pressionar a Cloudflare a parar de fornecer às Kiwi Farms proteção de segurança de proxy reverso, o que ajudou o fórum a se defender contra ataques de negação de serviço.
O trabalho de pesquisa descreve as várias intervenções tomadas por empresas de internet contra Kiwi Farms. Depois que a Cloudflare abandonou a Kiwi Farms em 3 de setembro do ano passado, o DDoS-Guard o fez dois dias depois. No dia seguinte, o Internet Archive e o hCaptcha romperam os laços.
Em 10 de setembro, o domínio kiwifarms.is parou de funcionar. Cinco dias depois, a empresa de segurança DiamWall suspendeu o serviço para quem operava o site.
Em 18 de setembro, todos os domínios usados pelo fórum ficaram inacessíveis, possivelmente relacionado a uma suposta violação de dados. Mas então, como observam os pesquisadores, o fórum da dark web da Kiwi Farms voltou em 29 de setembro. Houve outras interrupções intermitentes em 9 e 22 de outubro, mas desde então a Kiwi Farms está ativa, exceto por breves interrupções de serviço.
“A interrupção foi mais eficaz do que ataques DDoS anteriores no fórum, conforme observado em nossos conjuntos de dados. Ainda assim, o impacto, embora considerável, durou pouco.” afirmam os pesquisadores.
“Embora parte da atividade tenha sido transferida para o Telegram, metade dos membros principais voltou rapidamente após a recuperação do fórum. E enquanto a maioria dos usuários casuais foi dispensada, outros apareceram para substituí-los. Cortar a atividade do fórum e os usuários pela metade pode ser um sucesso se o objetivo da campanha é apenas prejudicar o fórum, mas se o objetivo era ‘abandonar o fórum’, falhou.”
O ódio é difícil de mudar
Uma razão para a durabilidade de tais sites, sugerem os autores, é que os ativistas ficam entediados e seguem em frente, enquanto os trolls são motivados a resistir e sobreviver. Eles argumentam que a desplataforma não parece uma solução de longo prazo porque, embora os participantes casuais do fórum de assédio possam se dispersar, os membros principais se tornam mais determinados e podem recrutar substitutos por meio da publicidade decorrente da censura.
Vu, Hutchings e Anderson argumentam que a deplatforming por si só é insuficiente e precisa ser feita no contexto de um regime jurídico que possa impor a conformidade. Infelizmente, eles observam, essa estrutura não existe atualmente.
“Acreditamos que os danos e ameaças associados às comunidades de ódio online podem justificar uma ação apesar do direito à liberdade de expressão”, concluem os autores. “Mas dentro da estrutura da UE e do Conselho da Europa, que se baseia na Convenção Europeia dos Direitos Humanos, tal ação terá que ser justificada como proporcional, necessária e de acordo com a lei.”
Eles também afirmam que o trabalho policial precisa ser emparelhado com o trabalho social, especificamente educação e apoio psicossocial, para desprogramar o ódio entre os participantes desses fóruns.
“Existem vários programas de pesquisa e experimentos de campo sobre formas eficazes de desintoxicar os jovens de atitudes misóginas, seja em clubes juvenis e outros pequenos grupos, na escala das escolas, ou mesmo gamificando a identificação de propaganda que promove o ódio”, argumentam eles. . “Mas a maioria dos países ainda carece de uma estratégia unificadora para a redução da violência.” ®
.