Ciência e Tecnologia

Apple expande sua detecção de nudez no dispositivo para combater o CSAM

.

Em dezembro, a Apple anunciou que estava eliminando uma polêmica ferramenta de digitalização de fotos do iCloud que a empresa havia desenvolvido para combater o material de abuso sexual infantil (CSAM) no que dizia ser uma maneira de preservar a privacidade. A Apple então disse que seus esforços anti-CSAM se concentrariam em seus recursos de “Segurança de comunicação” para crianças, anunciados inicialmente em agosto de 2021. E na Conferência Mundial de Desenvolvedores da empresa em Cupertino hoje, a Apple estreou expansões para o mecanismo, incluindo um recurso adicional adaptado para adultos.

O Communication Safety verifica as mensagens localmente nos dispositivos de usuários jovens para sinalizar o conteúdo que as crianças estão recebendo ou enviando em mensagens no iOS que contenham nudez. A Apple anunciou hoje que o recurso também está se expandindo para mensagens de vídeo do FaceTime, pôsteres de contato no aplicativo Phone, ferramenta de seleção de fotos onde os usuários escolhem fotos ou vídeos para enviar e AirDrop. O processamento do recurso no dispositivo significa que a Apple nunca vê o conteúdo sendo sinalizado, mas a partir deste outono, a Segurança de comunicação será ativada por padrão para todas as contas infantis – crianças menores de 13 anos – em um plano de Compartilhamento Familiar. Os pais podem optar por desativar o recurso, se assim o desejarem.

“A segurança da comunicação é um recurso em que realmente queremos dar à criança um momento para fazer uma pausa e, com sorte, ser interrompida no que é efetivamente uma conversa de limpeza, ou pelo menos pode ser”, diz o chefe de privacidade do usuário da Apple, Erik Neuenschwander. “Portanto, é para ser de alta fricção. O objetivo é que haja uma resposta que achamos provavelmente correta na situação daquela criança, que é não seguir em frente, e realmente queremos garantir que eles sejam educados.

A Apple disse em dezembro que planejava disponibilizar uma interface de programação de aplicativos (API) para que desenvolvedores terceirizados pudessem integrar facilmente o Communication Safety em seus aplicativos e usá-lo para detectar material de abuso sexual infantil, ou CSAM. A API, conhecida como a estrutura Sensitive Content Analysis, já está disponível para desenvolvedores. Plataformas como Discord já disseram que planejam incorporá-lo em seus aplicativos iOS.

Uma solicitação de segurança de comunicação para a conta de uma criança.

Fotografia: Apple

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo