Ciência e Tecnologia

‘Os riscos representados pela IA são reais’: Europa se move para vencer os algoritmos que arruínam vidas

It comecei com um único tweet em novembro 2019. David Heinemeier Hansson, um empresário de tecnologia de alto perfil, atacou o cartão de crédito recém-lançado da Apple, chamando-o de “sexista” por oferecer à esposa um limite de crédito 20 vezes menor que o seu.

As alegações se espalharam como fogo, com Hansson enfatizando que a inteligência artificial – agora amplamente usada para tomar decisões sobre empréstimos – era a culpada. “Não importa qual seja a intenção dos representantes individuais da Apple, importa o que O ALGORITMO em que eles depositaram sua fé completa. E o que ele faz é discriminar. Isso é foda.”

Embora a Apple e seus subscritores Goldman Sachs tenham sido liberados pelos reguladores dos EUA por violar as regras de empréstimos justos no ano passado, reacendeu um debate mais amplo sobre o uso da IA ​​em público e indústrias privadas.

Os políticos da União Europeia estão agora planejando introduzir o primeiro modelo global abrangente para regular a IA, à medida que as instituições automatizam cada vez mais tarefas rotineiras na tentativa de aumentar a eficiência e, finalmente, cortar custos.

Essa legislação, conhecida como Lei de Inteligência Artificial, terá consequências além das fronteiras da UE e, como o Regulamento Geral de Proteção de Dados da UE, será aplicável a qualquer instituição, incluindo o Reino Unido bancos, que atende clientes da UE. “O impacto do ato, uma vez adotado, não pode ser exagerado”, disse Alexandru Circiumaru, líder de políticas públicas europeias do Instituto Ada Lovelace.

Dependendo da lista final de “ alto risco”, há um impulso para introduzir regras estritas sobre como a IA é usada para filtrar solicitações de emprego, universidade ou bem-estar, ou – no caso de credores – avaliar a qualidade de crédito de potenciais mutuários.

As autoridades da UE esperam que, com supervisão extra e restrições sobre o tipo de modelos de IA que podem ser usados, as regras coibirão o tipo de discriminação baseada em máquina que pode influenciar decisões que alteram a vida, como se você pode pagar um casa ou empréstimo estudantil.

“A IA pode ser usada para analisar toda a sua saúde financeira, incluindo gastos, economias e outras dívidas, para chegar a uma imagem mais holística”, Sarah Kocianski, disse um consultor independente de tecnologia financeira. “Se projetados corretamente, tais sistemas podem fornecer acesso mais amplo ao crédito acessível.”

Mas um dos maiores perigos é o viés não intencional, em que os algoritmos acabam negando empréstimos ou contas a determinados grupos, incluindo mulheres, migrantes ou pessoas de cor.

Parte do problema é que a maioria dos modelos de IA só pode aprender com dados históricos que foram alimentados, o que significa que eles aprenderão que tipo de cliente foi emprestado anteriormente e quais clientes foram marcados como não confiáveis. “Existe o perigo de que eles sejam tendenciosos em termos de como um ‘bom’ mutuário se parece”, disse Kocianski. Notavelmente, gênero e Muitas vezes, a etnia desempenha um papel nos processos de tomada de decisão da IA ​​com base nos dados em que ela foi ensinada: fatores que não são de forma alguma relevantes para a capacidade de uma pessoa de pagar um empréstimo.”

Além disso, alguns modelos são projetados para serem cegos às chamadas características protegidas, o que significa que não devem considerar a influência de gênero, raça, etnia ou deficiência. Mas esses modelos de IA ainda podem discriminar como resultado da análise de outros pontos de dados, como códigos postais, que podem se correlacionar com grupos historicamente desfavorecidos que nunca solicitaram, garantiram ou reembolsaram empréstimos ou hipotecas.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo