.
Porcha Woodruff estava grávida de oito meses quando a polícia de Detroit, Michigan, veio prendê-la sob a acusação de roubo de carro e roubo. Ela estava preparando seus dois filhos para a escola quando seis policiais bateram em sua porta e lhe apresentaram um mandado de prisão. Ela pensou que era uma pegadinha.
“Você está brincando, roubo de carro? Você vê que estou grávida de oito meses?” diz o processo que Woodruff moveu contra a polícia de Detroit. Ela mandou os filhos subirem para contar ao noivo que “a mamãe vai para a cadeia”.
Ela foi detida e interrogada por 11 horas e liberada sob fiança de $ 100.000. Ela foi imediatamente para o hospital, onde foi tratada por desidratação.
Woodruff descobriu mais tarde que ela foi a última vítima de identificação falsa por reconhecimento facial. Depois que sua imagem foi incorretamente combinada com o vídeo de uma mulher no posto de gasolina onde ocorreu o roubo do carro, sua foto foi mostrada à vítima em uma linha de fotos. De acordo com o processo, a vítima supostamente escolheu a foto de Woodruff como a mulher associada ao autor do roubo. Em nenhum lugar do relatório do investigador foi dito que a mulher no vídeo estava grávida.
Um mês depois, as acusações foram arquivadas devido à insuficiência de provas.

Woodruff é o terceiro caso conhecido de prisão feita devido a falso reconhecimento facial pelo departamento de polícia de Detroit – e o sexto caso nos EUA. Todas as seis pessoas que foram falsamente presas são negras. Durante anos, especialistas e defensores da privacidade alertaram sobre a incapacidade da tecnologia de identificar adequadamente pessoas de cor e alertaram sobre as violações de privacidade e os perigos de um sistema que pretende identificar qualquer pessoa por sua imagem ou rosto. Ainda assim, as agências policiais e governamentais nos EUA e em todo o mundo continuam a contratar várias empresas de reconhecimento facial, desde Rekognition da Amazon até Clearview AI.
Países como França, Alemanha, China e Itália usaram tecnologia semelhante. Em dezembro, foi revelado que a polícia chinesa havia usado dados móveis e rostos para rastrear manifestantes. No início deste ano, os legisladores franceses aprovaram um projeto de lei que dá à polícia o poder de usar IA em espaços públicos antes das Olimpíadas de Paris 2024, tornando-se o primeiro país da UE a aprovar o uso de vigilância por IA (embora proíba o uso de inteligência artificial real). reconhecimento facial de tempo). E no ano passado, a Wired informou sobre propostas controversas para permitir que as forças policiais na UE compartilhem bancos de dados de fotos que incluem imagens de rostos de pessoas – descrito por um consultor de políticas de direitos civis como “a mais extensa infraestrutura de vigilância biométrica que eu acho que já vimos em o mundo”.
De volta a Detroit, o processo de Woodruff provocou novos apelos nos EUA para proibir totalmente o uso de reconhecimento facial pela polícia e pelas autoridades policiais. A polícia de Detroit lançou novas limitações no uso de reconhecimento facial nos dias desde que o processo foi aberto, incluindo a proibição do uso de imagens de reconhecimento facial em uma fila e a exigência de um detetive não envolvido no caso para lidar com a exibição das imagens ao pessoa sendo solicitada a identificar uma pessoa. Mas os ativistas dizem que isso não é suficiente.
“A única política que impedirá prisões por reconhecimento facial falso é uma proibição total”, disse Albert Fox Cahn, do Projeto de Supervisão de Tecnologia de Vigilância sem fins lucrativos. “Infelizmente, para cada erro de reconhecimento facial que conhecemos, provavelmente existem dezenas de americanos que permaneceram acusados injustamente e nunca conseguiram justiça. Esses sistemas racistas e propensos a erros simplesmente não têm lugar em uma sociedade justa”.

À medida que os governos de todo o mundo lidam com a IA generativa, os danos há muito registrados do uso de IA existente, como os dos sistemas de vigilância, costumam ser encobertos ou totalmente deixados de fora da conversa. Mesmo no caso da Lei de IA da UE, que foi introduzida com várias cláusulas propondo limitações aos usos de alto risco de IA, como reconhecimento facial, alguns especialistas dizem que o hype em torno da IA generativa distraiu parcialmente essas discussões. “Tivemos muita sorte de colocar muitas dessas coisas na agenda antes que esse hype da IA e IA generativa, o boom do ChatGPT acontecesse”, Sarah Chander, consultora sênior de políticas da organização internacional de defesa dos Direitos Digitais Europeus, me disse em junho. “Acho que o ChatGPT confunde muito a água em termos dos tipos de danos dos quais estamos falando aqui.”
Assim como outras formas de sistemas baseados em IA, o reconhecimento facial é tão bom quanto os dados que são inseridos nele e, como tal, muitas vezes reflete e perpetua os preconceitos daqueles que os constroem – um problema, como observou a Anistia Internacional, porque as imagens usados para treinar tais sistemas são predominantemente de rostos brancos. Os sistemas de reconhecimento facial têm as taxas de precisão mais baixas quando se trata de identificar pessoas negras, mulheres e com idades entre 18 e 30 anos, enquanto falsos positivos “existem amplamente”, de acordo com um estudo do Instituto Nacional de Padrões e Tecnologia. Em 2017, o NIST examinou 140 algoritmos de reconhecimento facial e descobriu que “as taxas de falsos positivos são mais altas no oeste e leste da África e leste da Ásia, e mais baixas nos indivíduos do leste europeu. Esse efeito geralmente é grande, com um fator de 100 falsos positivos a mais entre os países”.
Mas mesmo que a tecnologia de reconhecimento facial fosse exatamente precisa, não seria mais segura, argumentam os críticos. Grupos de liberdades civis dizem que a tecnologia pode potencialmente criar uma vasta e ilimitada rede de vigilância que destrói qualquer aparência de privacidade em espaços públicos. As pessoas podem ser identificadas onde quer que vão, mesmo que esses locais sejam onde praticam comportamentos constitucionalmente protegidos, como protestos e centros religiosos. No rescaldo da reversão da suprema corte dos Estados Unidos das proteções federais ao aborto, tornou-se perigoso para aqueles que procuram cuidados reprodutivos. Alguns sistemas de reconhecimento facial, como o Clearview AI, também usam imagens extraídas da Internet sem consentimento. Portanto, imagens de mídia social, fotos profissionais e quaisquer outras fotos que vivem em espaços digitais públicos podem ser usadas para treinar sistemas de reconhecimento facial que, por sua vez, são usados para criminalizar as pessoas. A Clearview foi proibida em vários países europeus, incluindo Itália e Alemanha, e está proibida de vender dados de reconhecimento facial a empresas privadas nos EUA.
Quanto a Woodruff, ela está pedindo indenização. O chefe da polícia de Detroit, James E White, disse que o departamento estava revisando o processo e que era “muito preocupante”.
após a promoção do boletim informativo
“Acho que ninguém deveria passar por algo assim, sendo falsamente acusado”, disse Woodruff ao Washington Post. “Todos nós nos parecemos com alguém.”
A semana na IA

O TechScape mais amplo

.