.
Deepfakes, desafios virais online e proteção da liberdade de expressão: o projeto de lei sobre segurança online se espalha por muitos cantos da Internet e está prestes a se tornar oficial. A tão debatida legislação deverá receber o consentimento real e, portanto, tornar-se lei em breve.
O objetivo da lei é garantir que as empresas de tecnologia tenham os sistemas e processos de moderação adequados para lidar com materiais nocivos. “Isso significa que uma empresa não pode cumprir a lei por acaso”, diz Ben Packer, sócio do escritório de advocacia Linklaters. “Deve ter sistemas e processos implementados para, por exemplo, minimizar o período de tempo em que o conteúdo ilegal está presente.”
Packer acrescenta que se esses sistemas e processos forem considerados não adequados, as plataformas podem violar a lei. “Mesmo que uma plataforma não tenha conteúdo ilegal presente em seu serviço, ainda assim poderá violar a legislação. Da mesma forma, o simples facto de conteúdo ilegal aparecer num serviço não significa que seja necessariamente uma violação.”
O ato é complicado e, como você verá a seguir, controverso.
Os deveres previstos no projeto de lei
O projeto de lei baseia-se em três deveres fundamentais: proteger as crianças; proteger o público de conteúdos ilegais; e ajudar os utilizadores adultos a evitar conteúdos prejudiciais – mas não ilegais – nas maiores plataformas.
Uma empresa está dentro do escopo do projeto de lei se distribuir material gerado por usuários para outros usuários ou for um mecanismo de busca. Portanto, abrangerá uma variedade de plataformas, do X ao Facebook, Instagram, YouTube e TikTok, bem como ao Google.
Para cumprir esses deveres relativos a crianças e conteúdos ilegais, as empresas terão de realizar avaliações de risco sobre se esse conteúdo aparece nos seus serviços.
Tudo isso acontecerá sob a supervisão do regulador de comunicações Ofcom, que emitirá orientações sobre quais conteúdos focar na prevenção e os sistemas necessários para lidar com isso. As empresas podem aderir aos códigos de prática do Ofcom para lidar com esse conteúdo ou criar seus próprios métodos para lidar com esse material.
Mas o projecto de lei deixa claro que se seguirem o código de prática, não correrão o risco de violar secções relevantes da lei. De acordo com a lei, eles serão “tratados como cumpridores de um dever relevante se o fornecedor tomar ou utilizar as medidas descritas em um código de prática”.
Num aceno às preocupações sobre o projecto de lei ser uma “carta da censura”, todas as empresas abrangidas pelo âmbito têm o dever de proteger o “direito dos utilizadores à liberdade de expressão” e a sua privacidade.
Protegendo as crianças
As mensagens do governo sobre a legislação centraram-se na proteção das crianças. Existem duas categorias de conteúdo prejudicial às crianças com as quais as empresas de tecnologia devem lidar. O primeiro é o “conteúdo prioritário”, como a pornografia e a promoção do suicídio e dos transtornos alimentares (embora abaixo do limiar da criminalidade). Se os sites permitirem esse tipo de conteúdo, as crianças devem ser impedidas de o encontrar e a lei espera que sejam utilizadas medidas de verificação da idade para tal – medidas que visam partes específicas de conteúdo ou abrangem uma secção específica de uma plataforma.
O segundo tipo é “conteúdo prioritário”, como bullying e postagens que incentivam as crianças a participar de acrobacias ou desafios perigosos. As crianças em faixas etárias consideradas prejudicadas por esse tipo de conteúdo – uma área onde as avaliações de risco serão fundamentais – devem ser protegidas do encontro com este tipo de material. O Ofcom definirá as etapas para fazer isso em um código de práticas que irá elaborar.
Conteúdo ilegal
A lei lista uma série de crimes que constituem “conteúdo ilegal prioritário”, o que significa que as empresas abrangidas pelo âmbito da lei precisam de ter sistemas e processos em funcionamento para evitar que os utilizadores encontrem esse tipo de material.
Esses crimes prioritários incluem: material de abuso sexual infantil; conteúdo terrorista; vingança ou pornografia extrema; e ameaças de matar. A lei deseja que esse tipo de conteúdo seja direcionado de forma proativa pelos sistemas e processos de moderação das plataformas.
Há novas infrações penais no ato. As pessoas que utilizam publicações nas redes sociais para encorajar a automutilação enfrentam processos criminais ao abrigo de um novo delito introduzido pelo projeto de lei que abrange a Inglaterra e o País de Gales. A lei também criminalizará o compartilhamento de “deepfakes” pornográficos – imagens ou vídeos manipulados para se parecerem com uma pessoa.
Proteger os adultos de conteúdo prejudicial
Isto aplica-se a empresas de “categoria um”, ou plataformas com maior alcance e maior influência sobre o discurso público. Então, você esperaria que isso se aplicasse a empresas como Facebook, Instagram, Google e TikTok. Mas depois de uma mudança tardia no projeto de lei, ele também poderia se aplicar a sites de nicho, mas arriscados, como a plataforma 4chan, preferida pela direita.
Assim que a lista de plataformas de sites da categoria um for elaborada pelo secretário de Estado, essas empresas terão de dar aos utilizadores adultos a possibilidade de evitar certos tipos de conteúdo, se assim o desejarem.
O tipo de conteúdo que as plataformas precisam proteger os usuários – se o usuário desejar – está listado na lei: material relacionado ao suicídio, automutilação e abuso direcionado a características protegidas pela Lei da Igualdade (como idade, raça e sexo). As plataformas precisam avaliar quanto desse conteúdo está em suas plataformas e implementar uma forma de proteger os usuários desse conteúdo.
Portanto, não se trata de clicar em um botão nessas plataformas e todas as coisas ruins vão embora. As plataformas precisarão oferecer recursos que, por exemplo, permitam aos usuários evitar abusos. Esta pode ser uma opção para consentir que alguém o siga, ou uma tela de aviso aparecendo para determinado conteúdo ou silenciando certas palavras. Muitas plataformas já oferecem esse tipo de medidas – mas agora o Ofcom está de olho.
após a promoção do boletim informativo
Outras obrigações das empresas da categoria um incluem a protecção do conteúdo jornalístico e do “conteúdo de importância democrática”.
Pornografia

Os sites que oferecem conteúdo pornográfico devem usar medidas de verificação de idade (jargão para verificação de idade) ou tecnologia de estimativa de idade (onde você envia uma selfie para a plataforma e ela avalia se você tem a idade que diz ter) para garantir que os usuários tenham mais de 18 anos. Isso obviamente se aplica a sites como o Pornhub e a plataformas de usuário para usuário que permitem conteúdo sexual, como OnlyFans (que já possui uma política de idade acima de 18 anos). Espera-se que sites que não sejam serviços dedicados à pornografia, mas que ainda permitam conteúdo sexual, como o X, apliquem medidas de verificação ou estimativa de idade a conteúdo específico ou a uma seção específica de seu serviço.
O Ofcom fornecerá orientação sobre quais são as formas mais eficazes de verificação ou estimativa de idade.
Criptografia ponta a ponta
Um dos elementos mais controversos do projeto de lei é uma disposição sobre o combate ao material de abuso sexual infantil (CSAM), que autoriza o Ofcom a ordenar que um serviço de mensagens use “tecnologia credenciada” para procurar e remover tal conteúdo.
Os defensores da privacidade e as empresas tecnológicas alertaram que a cláusula representa uma ameaça fundamental às mensagens encriptadas de ponta a ponta – onde apenas o remetente e o destinatário podem ler a mensagem – porque pode exigir a verificação de mensagens privadas.
Numa tentativa de evitar uma ameaça de êxodo, o governo disse em setembro que o Ofcom só poderia intervir se a digitalização do conteúdo fosse “tecnicamente viável” e se o processo cumprisse os padrões mínimos de privacidade e precisão. Alguns observadores interpretaram isto como uma descida, mas o governo não alterou a redacção do projecto de lei, pelo que esta ainda parece ser uma questão muito viva na legislação.
Responsabilidade criminal para executivos de tecnologia
Os executivos de tecnologia enfrentam a ameaça de uma sentença de dois anos de prisão se ignorarem persistentemente os avisos de execução do Ofcom informando que eles violaram seu dever de cuidar das crianças. O governo enfatizou aos nervosos executivos de tecnologia que a nova infração não criminalizará os executivos que “agiram de boa fé para cumprir de forma proporcional” com seus deveres.
Funcionários seniores também podem ser presos se atrapalharem uma investigação do Ofcom ou um pedido de informações.
Em termos de punições para as empresas, o Ofcom pode impor multas de £ 18 milhões ou 10% do faturamento global de uma empresa por violações da lei. Em casos extremos, também pode bloquear sites ou aplicativos.
Então, o que vem a seguir? Esta é uma peça legislativa complicada e abrangente, em parte um reflexo da natureza extensa do domínio que está a tentar regular. Ofcom – e plataformas de tecnologia – estarão ocupadas.
.






