News

Decisões injustas da IA ​​podem nos tornar indiferentes ao mau comportamento dos humanos

.

A inteligência artificial (IA) toma decisões importantes que afetam nossa vida cotidiana. Estas decisões são implementadas por empresas e instituições em nome da eficiência. Eles podem ajudar a determinar quem entra na faculdade, quem consegue um emprego, quem recebe tratamento médico e quem se qualifica para assistência governamental.

À medida que a IA assume estas funções, existe um risco crescente de decisões injustas – ou da perceção delas pelas pessoas afetadas. Por exemplo, nas admissões ou contratações universitárias, estas decisões automatizadas podem favorecer involuntariamente determinados grupos de pessoas ou pessoas com determinadas origens, enquanto candidatos igualmente qualificados, mas sub-representados, são ignorados.

Ou, quando utilizada pelos governos em sistemas de benefícios, a IA pode atribuir recursos de formas que agravam a desigualdade social, deixando algumas pessoas com menos do que merecem e com uma sensação de tratamento injusto.

Juntamente com uma equipa internacional de investigadores, examinámos como a distribuição injusta de recursos – quer seja gerida pela IA ou por um ser humano – influencia a vontade das pessoas de agir contra a injustiça. Os resultados foram publicados na revista Cognition.

Com a IA a tornar-se cada vez mais integrada na vida quotidiana, os governos estão a intervir para proteger os cidadãos de sistemas de IA tendenciosos ou opacos. Exemplos desses esforços incluem a Declaração de Direitos da IA ​​da Casa Branca e a Lei da IA ​​do Parlamento Europeu. Estas refletem uma preocupação partilhada: as pessoas podem sentir-se injustiçadas pelas decisões da IA.

Então, como é que experimentar a injustiça de um sistema de IA afeta a forma como as pessoas tratam umas às outras depois?

Indiferença induzida por IA

Nosso artigo na Cognition analisou a disposição das pessoas de agir contra a injustiça após sofrerem tratamento injusto por parte de uma IA. O comportamento que examinamos aplicava-se a interações subsequentes e não relacionadas entre esses indivíduos. A vontade de agir em tais situações, muitas vezes chamada de “punição pró-social”, é vista como crucial para a defesa das normas sociais.

Por exemplo, os denunciantes podem denunciar práticas antiéticas apesar dos riscos, ou os consumidores podem boicotar empresas que acreditam estar a agir de forma prejudicial. As pessoas que se envolvem nestes actos de punição pró-social fazem-no muitas vezes para resolver injustiças que afectam outras pessoas, o que ajuda a reforçar os padrões comunitários.

Representação de IA

Anggalih Prasetya / Shutterstock

Fizemos esta pergunta: poderia experimentar a injustiça da IA, em vez de uma pessoa, afetar a disposição das pessoas de enfrentar os malfeitores humanos mais tarde? Por exemplo, se uma IA atribuir injustamente um turno ou negar um benefício, será que isso torna menos provável que as pessoas denunciem posteriormente comportamento antiético de um colega de trabalho?

Através de uma série de experiências, descobrimos que as pessoas tratadas injustamente por uma IA eram menos propensas a punir infratores humanos posteriormente do que os participantes que foram tratados injustamente por um ser humano. Eles mostraram uma espécie de insensibilidade ao mau comportamento dos outros. Chamámos este efeito de indiferença induzida pela IA, para captar a ideia de que o tratamento injusto por parte da IA ​​pode enfraquecer o sentido de responsabilidade das pessoas perante os outros. Isto torna-os menos propensos a abordar as injustiças na sua comunidade.

Razões para inação

Isto pode acontecer porque as pessoas atribuem menos culpa à IA pelo tratamento injusto e, portanto, sentem-se menos motivadas a agir contra a injustiça. Este efeito é consistente mesmo quando os participantes encontraram apenas comportamento injusto por parte de outros ou comportamento justo e injusto. Para verificar se o relacionamento que descobrimos foi afetado pela familiaridade com a IA, realizamos os mesmos experimentos novamente, após o lançamento do ChatGPT em 2022. Obtivemos os mesmos resultados com a última série de testes que obtivemos com os anteriores. .

Estes resultados sugerem que as respostas das pessoas à injustiça dependem não apenas de terem sido tratadas de forma justa, mas também de quem as tratou injustamente – uma IA ou um ser humano.

Em suma, o tratamento injusto por parte de um sistema de IA pode afetar a forma como as pessoas respondem umas às outras, tornando-as menos atentas às ações injustas umas das outras. Isto destaca os potenciais efeitos em cascata da IA ​​na sociedade humana, que vão além da experiência de um indivíduo com uma única decisão injusta.

Quando os sistemas de IA agem de forma injusta, as consequências estendem-se a interações futuras, influenciando a forma como as pessoas se tratam, mesmo em situações não relacionadas com a IA. Sugerimos que os desenvolvedores de sistemas de IA se concentrem em minimizar distorções nos dados de treinamento de IA para evitar esses importantes efeitos colaterais.

Os decisores políticos também devem estabelecer padrões de transparência, exigindo que as empresas divulguem onde a IA pode tomar decisões injustas. Isto ajudaria os utilizadores a compreender as limitações dos sistemas de IA e como desafiar resultados injustos. Uma maior consciência destes efeitos também poderia encorajar as pessoas a permanecerem atentas à injustiça, especialmente depois de interagirem com a IA.

Sentimentos de indignação e culpa pelo tratamento injusto são essenciais para detectar injustiças e responsabilizar os transgressores. Ao abordar os efeitos sociais não intencionais da IA, os líderes podem garantir que a IA apoia, em vez de prejudicar, os padrões éticos e sociais necessários para uma sociedade baseada na justiça.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo