technology

Grupos de direitos civis pedem a Nova York que proíba a tecnologia biométrica em público • Strong The One

.

“Os nova-iorquinos não deveriam ser forçados a aceitar a vigilância biométrica como parte de atividades simples, como comprar mantimentos ou levar os filhos a um jogo de beisebol”, disseram ontem mais de 30 organizações de direitos civis e digitais em uma carta apoiando novas leis de privacidade na cidade.

A União das Liberdades Civis de Nova Iorque, o Projeto de Supervisão da Tecnologia de Vigilância, a Amnistia Internacional e outros escreveram um memorando de apoio a dois projetos de lei estaduais pendentes (1014-2023 e 1024-2023) que visam proibir o reconhecimento facial e outras tecnologias biométricas em espaços públicos. , como lojas e arenas, e em edifícios residenciais.

Na carta [PDF]os grupos dizem que a Câmara Municipal está “muito atrasada em tomar medidas” para aprovar a legislação. Strong The One pediu ao conselho comentários sobre o assalto.

Os grupos salientam que a tecnologia biométrica, incluindo o reconhecimento facial, pode ser “tendenciosa, propensa a erros e prejudicial para comunidades marginalizadas”.

O primeiro projeto de lei, 1014-2023, impediria qualquer local ou fornecedor de alojamento público de usar “qualquer tecnologia de reconhecimento biométrico para verificar ou identificar um cliente, proibiria as empresas de barrar a entrada de clientes com base no FRT e proibiria as empresas de vender informações biométricas dos clientes”. dados.”

A segunda, 1024-2023, concentra-se no uso de reconhecimento facial e outras formas de vigilância biométrica em “ambientes residenciais”. Os grupos afirmam que “os proprietários abusarão dessa tecnologia para justificar o despejo de inquilinos de unidades com aluguel estabilizado porque o sistema de tecnologia de reconhecimento facial determina que eles não estavam em casa com frequência suficiente”. Eles acrescentam: “Na verdade, os vendedores já começaram a anunciar esta tecnologia. Na habitação pública, a sua utilização levou a que os residentes fossem despejados por pequenas violações da política”.

As organizações passaram a citar o exemplo de uma mãe solteira que “foi alvo depois de começar as aulas noturnas e pediu ao ex-marido que passasse mais tempo em sua casa cuidando dos filhos, fazendo com que ela fosse sinalizada por potencialmente violar a regra de visitação da autoridade habitacional. política.”

câmeras de reconhecimento facial

A substituição do GDPR do Reino Unido pode acabar com a supervisão do reconhecimento facial ao vivo

CONSULTE MAIS INFORMAÇÃO

Os projetos de lei receberam atenção especial depois de uma incidente em dezembro onde a advogada Kelly Conlon foi rejeitada na porta do Radio City Music Hall depois que um sistema de reconhecimento facial a classificou como uma “pessoa proibida”. Conlon estava lá como acompanhante em uma viagem das tropas de escoteiras para ver as Rockettes. A razão pela qual ela foi marcada como persona non grata pelas câmeras de correspondência facial, logo descobriu-se, foi porque o escritório de advocacia de Nova Jersey para o qual ela trabalhava – Davis, Saperstein e Solomon – estava envolvido em um litígio de danos pessoais que durou anos contra um restaurante agora propriedade da Madison Square Garden Entertainment, que administra o local. Assustadoramente, Conlon disse a um canal local da NBC: “Eles sabiam meu nome antes de eu contar a eles”.

A MSG Entertainment, porém, disse que a empresa de Conlon foi avisada sobre sua “política” e que o uso do reconhecimento facial foi “claramente anunciado aos convidados” – esperançosamente antes que eles aparecessem no local.

Embora obviamente no caso de Conlon tenha sido eficaz, os críticos do reconhecimento facial dizem que a tecnologia costuma ser altamente imprecisa. Pesquisa sobre preconceitos inerentes ao sistema já mostrou anteriormente que a precisão da correspondência é menor em mulheres e pessoas de cor e a Amnistia Internacional disse que em um ambiente de justiça criminal, tecnologias de reconhecimento facial que são “inerentemente tendenciosas em sua precisão podem identificar erroneamente suspeitos, encarcerando negros americanos inocentes” [PDF].

Enquanto isso, algumas empresas de reconhecimento facial entraram em conflito com a lei. A Clearview AI, por exemplo, teve que prometer não vender bancos de dados de reconhecimento facial para a maioria das empresas dos EUA depois de resolver um processo judicial com a ACLU no ano passado. A empresa é famosa por extrair imagens do Facebook e similares para construir seu banco de dados de identificação facial.

Enquanto isso, no Reino Unido, a Clearview foi multado em milhões pelo Comissário de Informação (ICO) por vasculhar a web em busca de dados faciais. O órgão de fiscalização da privacidade disse que não havia “razão legal” para coletar imagens dos britânicos, enquanto a Clearview disse em sua defesa que os próprios titulares dos dados estão disponibilizando essas imagens publicamente.

No entanto, a OIC tem sido menos explícita sobre como pretende regulamentar o campo a partir de agora, à medida que o mais recente governo do Reino Unido tenta rever a legislação da era da UE. Comissário de Biometria e Câmeras de Vigilância do Reino Unido, Professor Fraser Sampson, disse [PDF] no início deste mês, uma consulta da OIC sobre o projeto de orientação sobre dados biométricos apresentava algumas grandes lacunas.

Sampson nos disse no início deste ano que o suposto substituto do GDPR do Reino Unido para o projeto de lei DPDI (agora na versão 2) – poderia acabar com a supervisão do reconhecimento facial ao vivo com a abolição de sua função, apesar dos recentes movimentos da polícia para “incorporar” o reconhecimento facial no força policial do país.

Sob o próximo Lei de IA, a União Europeia adotou um projeto de texto no início deste ano que inclui uma proibição total do uso de IA para vigilância biométrica, reconhecimento de emoções e policiamento preditivo. ®

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo