News

A Apple detalha os motivos para abandonar a ferramenta de verificação CSAM, mais polêmica se segue

.

Logotipo da Apple obscurecido pela folhagem

Em dezembro, a Apple disse que estava matando um esforço para projetar uma ferramenta de digitalização de fotos do iCloud que preservasse a privacidade para detectar material de abuso sexual infantil (CSAM) na plataforma. Anunciado originalmente em agosto de 2021, o projeto gerou polêmica desde seu início. A Apple fez uma pausa pela primeira vez em setembro em resposta às preocupações de grupos e pesquisadores de direitos digitais de que tal ferramenta seria inevitavelmente abusada e explorada para comprometer a privacidade e a segurança de todos os usuários do iCloud. Esta semana, um novo grupo de segurança infantil conhecido como Heat Initiative disse à Apple que está organizando uma campanha para exigir que a empresa “detecte, denuncie e remova” material de abuso sexual infantil do iCloud e ofereça mais ferramentas para os usuários denunciarem CSAM ao empresa.

Hoje, em um movimento raro, a Apple respondeu à Heat Initiative, delineando suas razões para abandonar o desenvolvimento de seu recurso de digitalização CSAM iCloud e, em vez disso, concentrando-se em um conjunto de ferramentas e recursos no dispositivo para usuários conhecidos coletivamente como recursos de “Segurança de Comunicação”. A resposta da empresa à Heat Initiative, que a Apple compartilhou com a WIRED esta manhã, oferece uma rara visão não apenas de sua justificativa para migrar para a Segurança da Comunicação, mas de suas visões mais amplas sobre a criação de mecanismos para contornar as proteções de privacidade do usuário, como a criptografia, para monitorar dados. Esta posição é relevante para o debate sobre a encriptação de forma mais ampla, especialmente porque países como o Reino Unido ponderam a aprovação de leis que exigiriam que as empresas tecnológicas pudessem aceder aos dados dos utilizadores para cumprir os pedidos das autoridades.

“O material de abuso sexual infantil é abominável e estamos comprometidos em quebrar a cadeia de coerção e influência que torna as crianças suscetíveis a ele”, escreveu Erik Neuenschwander, diretor de privacidade do usuário e segurança infantil da Apple, na resposta da empresa à Heat Initiative. Ele acrescentou, porém, que depois de colaborar com uma série de pesquisadores de privacidade e segurança, grupos de direitos digitais e defensores da segurança infantil, a empresa concluiu que não poderia prosseguir com o desenvolvimento de um mecanismo de verificação de CSAM, mesmo que fosse construído especificamente para preservar a privacidade. .

“A varredura dos dados do iCloud armazenados de forma privada de cada usuário criaria novos vetores de ameaças para os ladrões de dados encontrarem e explorarem”, escreveu Neuenschwander. “Também injetaria o potencial para uma ladeira escorregadia de consequências não intencionais. A varredura de um tipo de conteúdo, por exemplo, abre a porta para vigilância em massa e pode criar o desejo de pesquisar outros sistemas de mensagens criptografadas em vários tipos de conteúdo.”

A WIRED não conseguiu entrar em contato imediatamente com a Heat Initiative para comentar a resposta da Apple. O grupo é liderado por Sarah Gardner, ex-vice-presidente de relações externas da organização sem fins lucrativos Thorn, que trabalha no uso de novas tecnologias para combater a exploração infantil online e o tráfico sexual. Em 2021, Thorn elogiou o plano da Apple de desenvolver um recurso de digitalização CSAM do iCloud. Gardner disse em um e-mail ao CEO Tim Cook na quarta-feira, que a Apple também compartilhou com a WIRED, que a Heat Initiative considerou a decisão da Apple de eliminar o recurso “decepcionante”.

“Acreditamos firmemente que a solução que você revelou não apenas posicionou a Apple como líder global em privacidade do usuário, mas também prometeu erradicar milhões de imagens e vídeos de abuso sexual infantil do iCloud”, escreveu Gardner a Cook. “Faço parte de uma iniciativa em desenvolvimento que envolve especialistas e defensores preocupados em segurança infantil que pretendem se envolver com você e sua empresa, a Apple, sobre seu atraso contínuo na implementação de tecnologia crítica… O abuso sexual infantil é uma questão difícil que ninguém quer falar sobre, e é por isso que é silenciado e deixado para trás. Estamos aqui para garantir que isso não aconteça.”

A Apple afirma que, em última análise, mesmo o seu próprio design bem-intencionado não poderia ser adequadamente protegido na prática, e que as detecções de nudez no dispositivo para recursos como Mensagens, FaceTime, AirDrop e o seletor de fotos são alternativas mais seguras. A Apple também começou a oferecer uma interface de programação de aplicativos (API) para seus recursos de segurança de comunicação, para que desenvolvedores terceirizados possam incorporá-los em seus aplicativos. A Apple diz que a plataforma de comunicação Discord está integrando os recursos e que os fabricantes de aplicativos estão amplamente entusiasmados em adotá-los.

“Decidimos não prosseguir com a proposta de uma abordagem híbrida cliente-servidor para detecção de CSAM para fotos do iCloud de alguns anos atrás”, escreveu Neuenschwander à Heat Initiative. “Concluímos que não era praticamente possível implementar sem colocar em risco a segurança e a privacidade dos nossos usuários.”

A pedido da Heat Initiative para que a Apple criasse um mecanismo de denúncia de CSAM para usuários, a empresa disse à WIRED que seu foco é conectar seus usuários vulneráveis ​​ou vitimados diretamente com recursos locais e autoridades policiais em sua região que possam ajudá-los, em vez de a Apple se posicionar como uma intermediário para processamento de relatórios. A empresa afirma que oferecer esse serviço de intermediação pode fazer sentido para plataformas interativas como redes sociais.

No entanto, a necessidade de proteger as crianças do abuso sexual online é urgente e, à medida que estas preocupações se cruzam com o debate mais amplo sobre a encriptação, a decisão da Apple de se recusar a implementar a digitalização de dados continuará a ser testada.

Leia a troca completa entre Heat Initiative e Apple em WIRED. A WIRED editou informações pessoais confidenciais para a privacidade de remetentes e destinatários.

Esta história apareceu originalmente em wired.com.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo