.
Um caso da Suprema Corte marcado para argumentos orais em 21 de fevereiro pode transformar a web como a conhecemos.
O caso foi apresentado pela família de uma mulher morta em um ataque terrorista do Estado Islâmico em 2015 em Paris. Os queixosos alegaram que o YouTube – que pertence ao Google – conscientemente permitiu que centenas de vídeos radicalizadores fossem postados e alegaram ainda que o YouTube recomendou vídeos do ISIS aos usuários. O Google argumentou que está isento neste caso pela Seção 230 – a poderosa legislação de 1996 que protege as empresas da web e de mídia social de responsabilidade legal pelo conteúdo postado pelos usuários.
A posição do Google foi apoiada por um tribunal distrital federal e pelo Tribunal de Apelações do 9º Circuito dos Estados Unidos. A Suprema Corte que está julgando o caso sinaliza o interesse dos juízes em avaliar a lei histórica, que continua sendo uma peça vital da legislação para proteger pequenas e médias empresas sem bolsos cheios ou exércitos de advogados para se defender de inúmeros processos. Ele dá às empresas ampla margem de manobra para moderar seus sites a seu critério, sem responsabilidade e, mais importante, permite que as startups desafiem as empresas estabelecidas no mercado livre.
A seção 230 atraiu fogo de ambos os lados do corredor. O presidente Biden reiterou seu apelo para reformar a lei no início deste ano. Os políticos democratas, incluindo Biden, geralmente querem reformar ou revogar a Seção 230 para forçar as empresas de mídia social a moderar mais. Políticos republicanos, incluindo o ex-presidente Trump e o senador Mitch McConnell, pediram sua revogação para forçar as empresas de mídia social a moderar menos. A Suprema Corte também está considerando ouvir casos que desafiam as leis do Texas e da Flórida que limitam a capacidade das plataformas de remover conteúdo ou impedi-las de banir políticos.
Quando a Seção 230 foi promulgada, a web era um lugar muito diferente. A mídia social estava no útero. As plataformas da época não espionavam, rastreiam, visavam e manipulavam amplamente a atividade online de seus usuários. Hoje, esse modelo de negócios é a galinha dos ovos de ouro dos gigantes das mídias sociais. Aí reside o problema: Behemoths, incluindo Facebook, Instagram, Twitter, TikTok e YouTube, abusaram dos privilégios da Seção 230. Eles se escondem atrás do escudo de responsabilidade desta legislação enquanto direcionam seus usuários com conteúdo que eles não solicitaram ou procuraram.
Em vez de nos livrarmos da Seção 230, deveríamos reformá-la para permitir a liberdade de expressão e apoiar iniciantes modestamente financiados, ao mesmo tempo em que responsabilizamos todas as empresas. Seus escudos de responsabilidade devem proteger o conteúdo que uma empresa da web desempenha papel zero na promoção ou amplificação e decisões de moderação que estão especificamente alinhadas com os termos de serviço da empresa.
Mas a proteção de responsabilidade deve ser removida em quatro instâncias: conteúdo que os algoritmos de uma empresa fazem “tendência” na frente de usuários que de outra forma não o teriam visto; conteúdo que foi impulsionado por meio do sistema de segmentação de anúncios pagos de um site; conteúdo que foi removido e que não viola nenhuma das regras restritas do site para postagem – por exemplo, regras que proíbem assédio direcionado, intimidação, incitação à violência, spam ou doxxing – que entraram em vigor no dia em que foram postadas; e conteúdo que foi recomendado ou inserido no feed de um usuário, algoritmicamente ou manualmente pelo site, para o qual o usuário não optou explicitamente.
Os sites podem então fazer a escolha: eles querem se engajar no direcionamento e na manipulação do feed de notícias de seus usuários e, portanto, ser responsabilizados? Ou eles querem simplesmente fornecer uma plataforma onde os usuários seguem o conteúdo dos amigos, grupos e influenciadores com quem eles escolhem se conectar e ver? Recomendações algorítmicas teriam que se tornar muito mais transparentes neste cenário. Os sites teriam que identificar claramente qual conteúdo foi impulsionado por meio de seus algoritmos e obter permissão expressa dos usuários para veicular esse conteúdo a eles, dando aos usuários mais controle e transparência.
Além disso, de acordo com a justificativa da Flórida para sua lei que pode chegar à Suprema Corte, a Seção 230 deve ser alterada para exigir que os sites “sejam transparentes sobre suas práticas de moderação de conteúdo e forneçam aos usuários aviso adequado sobre alterações nessas políticas”. A liberdade de expressão deve ser protegida de caprichos politicamente motivados da equipe de gerenciamento ou dos funcionários de um site.
Também é importante identificar pelo que as empresas de conteúdo impulsionado não serão responsáveis. Por exemplo, o que acontece se uma empresa de mídia social recomendar uma postagem sobre surfe de ondas grandes e uma criança vir a postagem, sair para surfar e se afogar? A família dele pode processar a rede social? A solução aqui é esclarecer na legislação 230 atualizada que as empresas são responsáveis por tipos específicos de conteúdo que promovem, como difamação e incitação à violência, e não qualquer conteúdo que antecede um resultado terrível.
Quaisquer mudanças mais amplas na Seção 230 causarão uma perda total da privacidade do usuário online. Se as empresas da web forem responsabilizadas por todo e qualquer conteúdo em suas plataformas, elas terão que examinar tudo o que os usuários postarem – o Big Brother com esteróides. As startups teriam dificuldades para arcar com as despesas de monitoramento ou honorários advocatícios.
Se a Seção 230 for revogada, para evitar responsabilidades, as empresas da web censurariam qualquer conteúdo remotamente controverso ou adotariam uma abordagem direta e evitariam totalmente a moderação. Os primeiros seriam pesadelos orwellianos desprovidos de liberdade de expressão, enquanto os últimos significariam fossas de conteúdo intragável. Esse é um cenário de perde-perde.
A Suprema Corte deve manter a Seção 230 para continuar a proteger a liberdade de expressão e incentivar a concorrência. Então é o trabalho do Congresso fazer reformas cuidadosas. Responsabilize as empresas por um conteúdo claramente definido no qual elas participam ativamente na segmentação, promoção ou censura. Ao mesmo tempo, estabeleça regras para garantir que a privacidade do usuário seja protegida e processos frívolos sejam evitados. Este é o melhor caminho a seguir – um compromisso.
Mark Weinstein é o fundador da rede social MeWe e está escrevendo um livro sobre como curar mídias sociais, saúde mental, privacidade, discurso civil e democracia.
.