.
Outra variável, “parceiro presumido”, é usada para determinar se alguém tem um relacionamento oculto, já que os solteiros recebem mais benefícios. Isso envolve a busca de dados para conexões entre beneficiários de assistência social e outros residentes dinamarqueses, como se moraram no mesmo endereço ou criaram filhos juntos.
“A ideologia subjacente a esses sistemas algorítmicos e [the] vigilância e monitoramento muito intrusivos de pessoas que recebem assistência social, é uma profunda suspeita dos pobres”, diz Victoria Adelmant, diretora do Digital Welfare and Human Rights Project.
para todos os complexidade dos modelos de aprendizado de máquina e todos os dados acumulados e processados, ainda há uma pessoa com uma decisão a tomar no lado difícil dos controles de fraude. Este é o sistema à prova de falhas, argumenta Jacobsen, mas também é o primeiro lugar onde esses sistemas colidem com a realidade.
Morten Bruun Jonassen é um desses sistemas de segurança. Ex-policial, ele lidera a equipe de controle de Copenhague, um grupo de funcionários encarregados de garantir que os residentes da cidade sejam registrados no endereço correto e recebam os pagamentos de benefícios corretos. Ele trabalha para o departamento de serviços sociais da cidade há 14 anos, tempo suficiente para se lembrar de uma época antes de os algoritmos assumirem tamanha importância – e tempo suficiente para observar a mudança de tom no debate nacional sobre bem-estar.
Embora a guerra contra a fraude previdenciária permaneça politicamente popular na Dinamarca, Jonassen diz que apenas um número “muito pequeno” dos casos que ele encontra envolve fraude real. Apesar de todo o investimento, a unidade de mineração de dados não é sua melhor fonte de pistas, e os casos sinalizados pelo sistema de Jacobsen representam apenas 13% dos casos que sua equipe investiga – metade da média nacional. Desde 2018, Jonassen e sua unidade suavizaram sua abordagem em comparação com outras unidades na Dinamarca, que tendem a ser mais duras com fraudes, diz ele. Em um caso documentado em 2019 pela DR, a emissora pública da Dinamarca, uma beneficiária disse que os investigadores vasculharam suas redes sociais para ver se ela estava em um relacionamento antes de acusá-la injustamente de fraude previdenciária.
Embora ele dê crédito à unidade de mineração de dados de Jacobsen por tentar melhorar seus algoritmos, Jonassen ainda não viu uma melhora significativa nos casos com os quais lida. “Basicamente, não foi melhor”, diz ele. Em uma pesquisa de 2022 nas vilas e cidades da Dinamarca conduzida pela unidade, os funcionários avaliaram sua satisfação com ela, em média, entre 4 e 5 em 7.
Jonassen diz que as pessoas que reivindicam benefícios devem receber o que merecem – nem mais, nem menos. E, apesar da escala da burocracia automatizada de Jacobsen, ele inicia mais investigações com base em dicas de escolas e assistentes sociais do que em casos sinalizados por máquinas. E, fundamentalmente, ele diz, ele trabalha duro para entender as pessoas que reivindicam benefícios e as situações difíceis em que se encontram. “Se você olhar para as estatísticas e apenas olhar para a tela”, diz ele, “você não vê que há há pessoas por trás disso.”
Reportagem adicional de Daniel Howden, Soizic Penicaud, Pablo Jiménez Arandia e Htet Aung. A reportagem foi apoiada pelo AI Accountability Fellowship do Pulitzer Center e pelo Center for Artistic Inquiry and Reporting.
.