.
A Seção 230 do Telecommunications Decency Act é uma lei muito importante que permite que a Internet funcione como funciona hoje. Sem ela, seu site favorito deixaria de existir ou mudaria de maneiras que o tornariam irreconhecível. Precisamos dessas proteções porque, sem elas, não teríamos como nos expressar online se não concordássemos com quem está encarregado de moderar o conteúdo.
Mas também é uma lei muito ampla que precisa ser reformada. Quando foi escrita em 1996, ninguém podia prever o poder que algumas empresas de tecnologia exerceriam ou quanta influência os sites de mídia social teriam sobre todos nós. À medida que as situações mudam, as leis que as regem devem fazer o mesmo.
Uma decisão recente do Tribunal de Apelações dos EUA do Terceiro Circuito decidiu que a ByteDance, empresa controladora do TikTok, é responsável pela distribuição de conteúdo prejudicial, embora seja blindada como sua editora. É uma história trágica de uma menina de 10 anos tentando o “desafio do apagão” que viu em um curta do TikTok e morrendo de asfixia como resultado.
A mãe da criança processou por negligência e homicídio culposo e o caso seguiu pelos tribunais até o Terceiro Circuito. A próxima parada é a Suprema Corte. Embora o caso seja terrível, a decisão do Terceiro pode ser o que é necessário para reformular a Seção 230 e responsabilizar as grandes empresas de tecnologia, ao mesmo tempo em que as protege.
O Android Central entrou em contato com o TikTok para pedir uma declaração e atualizará este artigo quando receber uma.
Há uma diferença entre um publicador e um distribuidor. Se eu escrever um post no X ou fizer um vídeo no TikTok incentivando atividades ilegais, o X ou o TikTok estão apenas publicando. Uma vez que o algoritmo deles pega e força sobre os outros, eles estão distribuindo.
Você realmente não pode ter um sem o outro, mas o terceiro decidiu 230 afirmando “Nenhum provedor ou usuário de um serviço de computador interativo será tratado como editor ou orador de qualquer informação fornecida por outro provedor de conteúdo de informação.” não protege o editor das consequências da distribuição do conteúdo.
Não concordo com o raciocínio do Terceiro aqui simplesmente porque ele é distribuído como resultado de ser publicado. Por outro lado, não tenho nada a dizer sobre o assunto porque sou apenas um sujeito, não um juiz de tribunal de circuito. Isso aponta que os gigantes da mídia social precisam ter algum incentivo para policiar melhor seu conteúdo, ou a lei precisa ser alterada.
Não, não estou pedindo censura. Deveríamos poder dizer ou fazer qualquer coisa idiota que quisermos, desde que estejamos dispostos a lidar com as consequências. Mas os Metas e ByteDances do mundo não precisam gostar do que dizemos ou fazemos e podem derrubar isso a qualquer momento que quiserem como consequência.
Sem a Seção 230, eles fariam isso com muito mais frequência e essa não é a solução certa.
Não tenho ideia de como consertar as coisas. Não preciso saber como consertar para saber que estão quebradas. Pessoas que ganham salários muito maiores do que eu são responsáveis por isso.
Eu sei que uma criança de 10 anos não deveria ser induzida a se asfixiar porque o TikTok disse a ela que era legal. Eu sei que ninguém que trabalha para a ByteDance queria que ela fizesse isso. Eu também sei que nenhuma quantidade de controle parental poderia evitar que isso acontecesse 100% do tempo.
Precisamos que uma legislação como a Seção 230 exista porque não há como evitar que conteúdo terrível passe pela moderação mais draconiana. Mas ela precisa ser revisada, e os legisladores precisam descobrir. Agora pode ser o momento certo para fazer isso.
.