Estudos/Pesquisa

As alegações de que a IA pode aumentar a diversidade no local de trabalho são ‘espúrias e perigosas’ – Strong The One

.

Novas pesquisas destacam um mercado crescente de ferramentas de recrutamento baseadas em IA, usadas para processar grandes volumes de candidatos a emprego, que alegam ignorar o preconceito humano e remover a discriminação na contratação. • Essas ferramentas de IA reduzem a raça e o gênero a pontos de dados triviais e geralmente se baseiam em análises de personalidade que são “pseudociência automatizada”, de acordo com pesquisadores de Cambridge. Os acadêmicos também se uniram a estudantes de computação para desmascarar o uso da IA ​​no recrutamento, criando uma versão dos tipos de software cada vez mais usados ​​pelas equipes de RH. Ele demonstra como mudanças aleatórias em roupas ou iluminação fornecem leituras de personalidade radicalmente diferentes que podem ser decisivas para uma geração de candidatos a emprego.

Os últimos anos viram o surgimento de ferramentas de IA comercializadas como uma resposta à falta de diversidade na força de trabalho, desde o uso de chatbots e raspadores de currículo para alinhar candidatos em potencial, até software de análise para entrevistas em vídeo.

Aqueles por trás da tecnologia afirmam que ela anula os preconceitos humanos contra gênero e etnia durante o recrutamento, usando algoritmos que lêem vocabulário, padrões de fala e até microexpressões faciais para avaliar enormes grupos de candidatos a emprego para o tipo de personalidade certo e “ajuste à cultura”.

No entanto, em um novo relatório publicado em Filosofia e tecnologiapesquisadores do Centro de Estudos de Gênero de Cambridge argumentam que essas alegações fazem alguns usos da IA ​​na contratação pouco melhor do que uma “pseudociência automatizada” que lembra a fisionomia ou a frenologia: as crenças desacreditadas de que a personalidade pode ser deduzida de características faciais e formato do crânio.

Eles dizem que é um exemplo perigoso de “tecnosolucionismo”: recorrer à tecnologia para fornecer soluções rápidas para problemas de discriminação profundamente enraizados que exigem investimento e mudanças na cultura da empresa.

De fato, os pesquisadores trabalharam com uma equipe de estudantes de ciências da computação de Cambridge para desmascarar essas novas técnicas de contratação, construindo uma ferramenta de IA modelada na tecnologia, disponível em: https://personal-ambiguator-frontend.vercel.app/

A ‘Máquina de Personalidade’ demonstra como mudanças arbitrárias na expressão facial, roupas, iluminação e fundo podem fornecer leituras de personalidade radicalmente diferentes – e, portanto, podem fazer a diferença entre rejeição e progressão para uma geração de candidatos a emprego que disputam posições de pós-graduação.

A equipe de Cambridge diz que o uso da IA ​​para restringir os grupos de candidatos pode, em última análise, aumentar a uniformidade e não a diversidade na força de trabalho, já que a tecnologia é calibrada para procurar o “candidato ideal” da fantasia do empregador.

Isso pode fazer com que aqueles com o treinamento e a experiência certos “conquistem os algoritmos”, replicando comportamentos que a IA está programada para identificar e levando essas atitudes para o local de trabalho, dizem os pesquisadores.

Além disso, como os algoritmos são aprimorados usando dados passados, eles argumentam que os candidatos considerados os mais adequados provavelmente acabarão sendo aqueles que mais se assemelham à força de trabalho atual.

“Estamos preocupados que alguns fornecedores estejam embrulhando produtos de ‘óleo de cobra’ em um pacote brilhante e vendendo-os para clientes desavisados”, disse a coautora Dr. Eleanor Drage.

“Ao afirmar que o racismo, o sexismo e outras formas de discriminação podem ser eliminados do processo de contratação usando inteligência artificial, essas empresas reduzem a raça e o gênero a pontos de dados insignificantes, em vez de sistemas de poder que moldam como nos movemos pelo mundo. “

Os pesquisadores apontam que essas ferramentas de recrutamento de IA geralmente são proprietárias – ou “caixa preta” – então como elas funcionam é um mistério.

“Embora as empresas possam não estar agindo de má fé, há pouca responsabilidade sobre como esses produtos são construídos ou testados”, disse Drage. “Como tal, essa tecnologia e a forma como é comercializada podem acabar como fontes perigosas de desinformação sobre como o recrutamento pode ser ‘imparcial’ e mais justo”.

Apesar de algumas contrariedades – a Lei de IA proposta pela UE classifica o software de contratação com inteligência artificial como “alto risco”, por exemplo – pesquisadores dizem que ferramentas feitas por empresas como Retorio e HIreVue são implantadas com pouca regulamentação e apontam para pesquisas sugerindo o uso da IA ​​na contratação é uma bola de neve.

Um estudo de 2020 com 500 organizações de vários setores em cinco países descobriu que 24% das empresas implementaram a IA para fins de recrutamento e 56% dos gerentes de contratação planejavam adotá-la no próximo ano.

Outra pesquisa com 334 líderes em recursos humanos, realizada em abril de 2020, durante a pandemia, descobriu que 86% das organizações estavam incorporando novas tecnologias virtuais nas práticas de contratação.

“Essa tendência já estava em vigor quando a pandemia começou, e a mudança acelerada para o trabalho online causada pelo COVID-19 provavelmente verá uma maior implantação de ferramentas de IA pelos departamentos de RH no futuro”, disse o coautor Dr Kerry Mackereth, que apresenta o podcast Good Robot with Drage, no qual a dupla explora a ética da tecnologia.

O Covid-19 não é o único fator, de acordo com os agentes de RH que os pesquisadores entrevistaram. “O recrutamento em volume é cada vez mais insustentável para as equipes de recursos humanos que estão desesperadas por software para cortar custos, bem como o número de candidatos que precisam de atenção pessoal”, disse Mackereth.

Drage e Mackereth dizem que muitas empresas agora usam IA para analisar vídeos de candidatos, interpretando a personalidade avaliando regiões de um rosto – semelhante à IA de detecção de mentiras – e pontuando para os “cinco grandes” tropos de personalidade: extroversão, amabilidade, abertura, consciência e neuroticismo.

Os estudantes por trás da ‘Máquina da Personalidade’, que usa uma técnica semelhante para expor suas falhas, dizem que, embora sua ferramenta não ajude os usuários a vencer o algoritmo, ela dará aos candidatos a emprego uma amostra dos tipos de escrutínio da IA ​​que podem estar sob – – talvez mesmo sem o seu conhecimento.

“Muitas vezes, o processo de contratação é oblíquo e confuso”, disse Euan Ong, um dos estudantes desenvolvedores. “Queremos dar às pessoas uma demonstração visceral dos tipos de julgamentos que agora estão sendo feitos sobre elas automaticamente.

“Essas ferramentas são treinadas para prever a personalidade com base em padrões comuns em imagens de pessoas que viram anteriormente e muitas vezes acabam encontrando correlações espúrias entre personalidade e propriedades aparentemente não relacionadas da imagem, como brilho. de modelos que acreditamos serem usados ​​na prática, a fim de experimentá-lo nós mesmos”, disse Ong.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo