News

Como o Google ignora as consequências das mídias sociais para as crianças

.

Nas disputas legais como na vida, às vezes o que não é dito revela mais do que o que é. Considere os documentos arquivados na Suprema Corte em defesa de uma lei que concede ao Google e outras empresas de tecnologia imunidade limitada de ações judiciais.

Gonzalez vs. Google, marcado para sustentação oral perante a Suprema Corte na terça-feira, diz respeito à Seção 230 da Lei de Decência nas Comunicações, uma lei promulgada em 1996 para regular a então nova internet. Grupos de defesa da criança que apresentaram petições de amigos do tribunal no caso observam que as plataformas de mídia social estão conscientemente prejudicando as crianças ao fornecer conteúdo perigoso em um viciante maneiras. Notavelmente, nenhuma das dezenas de petições arquivadas pelas empresas de tecnologia abordam esses danos.

Um dos principais propósitos do Congresso ao promulgar a Seção 230 foi fornecer, como alguns senadores colocaram, “proteção tão necessária para as crianças,” não apenas de conteúdo explícito, mas também de abuso. Ironicamente, as plataformas agora estão argumentando que o Congresso realmente pretendia oferecer-lhes imunidade para decisões de negócios que eles sabem que prejudicarão as crianças.

O caso Gonzalez foi apresentado pela família de um americano assassinado pelo ISIS nos ataques terroristas de Paris em 2015. A família alega que, como consequência previsível dos esforços para manter o máximo possível de olhos no YouTube do Google, vídeos de recrutamento de terroristas são entregues a pessoas que provavelmente se interessam por terrorismo. Em um caso semelhante a ser discutido na quarta-feira, Twitter vs. Taamneh, o tribunal avaliará se a alegada falha das plataformas em tomar “medidas significativas” para remover o conteúdo terrorista viola a lei federal antiterrorismo.

As repercussões da ascensão da mídia social vão muito além do aumento do acesso a conteúdo terrorista. Durante os anos em que o Instagram explodiu de um milhão para um bilhão de usuários, os Estados Unidos viram um crescimento surpreendente pico de 146% em suicídios com armas de fogo entre crianças de 10 a 14 anos. O número geral de suicídios entre jovens aumentou 57% sem precedentes. Embora a correlação entre o crescimento das plataformas e a crise da doença mental juvenil não prove a causalidade, a pesquisa interna vazada do Facebook observou que 6% dos usuários adolescentes americanos do Instagram “atribuem seu desejo de se matar” à plataforma.

Pesquisadores e médicos também documentaram repetidamente a saúde mental e os danos físicos generalizados relacionados à mídia social em crianças. Na segunda-feira passada, os Centros de Controle e Prevenção de Doenças dos EUA informaram que meninas adolescentes estão sofrendo níveis recordes de tristeza e risco de suicídio, que alguns especialistas atribuem em parte ao aumento das mídias sociais. E na terça-feira, um comitê do Senado dos EUA ouviu histórias angustiantes sobre os perigos, como descreveu um pai enlutado, do “poder incontrolado da indústria de mídia social”.

As plataformas de mídia social ganham dinheiro com a venda de publicidade. Mais tempo gasto em uma plataforma significa mais olhos em seus anúncios, o que significa que pode cobrar mais por esses anúncios. Além disso, quanto mais tempo um usuário passa na plataforma, mais dados a plataforma desenvolve sobre o usuário, que pode, por sua vez, usar para manter o usuário na plataforma por mais tempo.

Os humanos não estão classificando pessoalmente quem vê o que está nessas plataformas. Em vez disso, os humanos dão às tecnologias de inteligência artificial a instrução para maximizar o que as plataformas chamam de “engajamento do usuário”. A IA faz isso em velocidades fantásticas, testando quais recomendações funcionam melhor em bilhões de usuários. Em seguida, ele oferece conteúdo com base não apenas no que uma criança diz que quer, mas também no que é estatisticamente mais provável de manter crianças como ela grudadas na tela. Muitas vezes, a resposta é qualquer coisa que explore seus medos e ansiedades.

Isso significa que, com frequência perturbadora, adolescentes deprimidos recebem dicas de suicídio, meninas ansiosas pela imagem corporal obtêm conteúdo promovendo distúrbios alimentares e jovens curiosos por drogas têm oportunidades de comprar pílulas misturadas com fentanil letal. Além disso, as plataformas usam truques adaptados neurocientificamente, como rolagem automática, lembretes constantes para retornar à plataforma e “curtidas” que disparam dopamina e podem ser viciantes para as crianças. Frequentemente, as crianças que desejam seriamente desligar a plataforma não conseguem; seus cérebros simplesmente não têm idade suficiente para resistir aos vícios no mesmo grau que os dos adultos.

Para manter o crescimento a cada trimestre, as plataformas precisam encontrar maneiras de atrair e manter mais usuários por mais tempo. Se as plataformas puderem continuar lucrando com a tecnologia que sabem que prejudicará um grande número de crianças sem medo de consequências financeiras, elas continuarão a aperfeiçoar suas técnicas e mais crianças serão prejudicadas. O suicídio infantil e a crise de saúde mental que estamos enfrentando agora vão piorar sem fim à vista.

Não precisa ser assim. O método do mecanismo de pesquisa do Google de priorizar o conteúdo para os espectadores, projetado para ser baseado na experiência, autoridade e confiabilidade dos sites, mostra que existem maneiras de decidir quem vê o que são muito menos arriscadas para as crianças – e para todos os outros.

A decisão do tribunal não encerrará o debate sobre a Seção 230, mas pode começar a restaurar a lei ao propósito original de proteger os jovens. Mas não deveria ser uma questão de debate que deveria ser ilegal conscientemente usar como arma as vulnerabilidades das crianças contra elas.

E se não podemos concordar com isso, qualquer um que acredite que o dano sem precedentes que as crianças estão sofrendo é o preço que a sociedade tem que pagar pela liberdade na internet deveria pelo menos reconhecer esse dano.

Ed Howard é conselheiro sênior do Children’s Advocacy Institute da Escola de Direito da Universidade de San Diego.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo