Estudos/Pesquisa

Tetris revela como as pessoas reagem à IA injusta — Strong The One

.

Um experimento conduzido pela Cornell University, no qual duas pessoas jogam uma versão modificada do Tetris, revelou que os jogadores que recebem menos jogadas percebem o outro jogador como menos simpático, independentemente de uma pessoa ou um algoritmo alocar as jogadas.

A maioria dos estudos sobre justiça algorítmica se concentra no algoritmo ou na própria decisão, mas os pesquisadores procuraram explorar as relações entre as pessoas afetadas pelas decisões.

“Estamos começando a ver muitas situações em que a IA toma decisões sobre como os recursos devem ser distribuídos entre as pessoas”, disse Malte Jung, professor associado de ciência da informação, cujo grupo conduziu o estudo. “Queremos entender como isso influencia a maneira como as pessoas se percebem e se comportam umas com as outras. Vemos cada vez mais evidências de que as máquinas mexem com a maneira como interagimos umas com as outras.”

Em um estudo anterior, um robô escolheu para qual pessoa dar um bloco e estudou as reações de cada indivíduo às decisões de alocação da máquina.

“Percebemos que toda vez que o robô parecia preferir uma pessoa, a outra ficava chateada”, disse Jung. “Queríamos estudar mais isso, porque pensamos que, à medida que as máquinas que tomam decisões se tornam mais parte do mundo – seja um robô ou um algoritmo – como isso faz uma pessoa se sentir?”

Usando software de código aberto, Houston Claure – o primeiro autor do estudo e pesquisador de pós-doutorado na Universidade de Yale – desenvolveu uma versão para dois jogadores do Tetris, na qual os jogadores manipulam blocos geométricos em queda para empilhá-los sem deixar lacunas antes da pilha de blocos. para o topo da tela. A versão de Claure, Co-Tetris, permite que duas pessoas (uma de cada vez) trabalhem juntas para completar cada rodada.

Um “alocador” – humano ou AI, que foi transmitido aos jogadores – determina qual jogador faz cada turno. Jung e Claure planejaram seu experimento para que os jogadores tivessem 90% dos turnos (a condição “mais”), 10% (“menos”) ou 50% (“igual”).

Os pesquisadores descobriram, previsivelmente, que aqueles que receberam menos voltas estavam cientes de que seu parceiro recebia significativamente mais. Mas eles ficaram surpresos ao descobrir que os sentimentos sobre isso eram praticamente os mesmos, independentemente de ser um humano ou uma IA fazendo a alocação.

O efeito dessas decisões é o que os pesquisadores denominaram “comportamento de alocação de máquina” – semelhante ao fenômeno estabelecido de “comportamento de alocação de recursos”, o comportamento observável que as pessoas exibem com base nas decisões de alocação. Jung disse que o comportamento de alocação da máquina é “o conceito de que existe esse comportamento único que resulta de uma máquina tomando uma decisão sobre como algo é alocado”.

Os pesquisadores também descobriram que a justiça não leva automaticamente a uma melhor jogabilidade e desempenho. De fato, a distribuição igualitária de turnos levou, em média, a uma pontuação pior do que a distribuição desigual.

“Se um jogador forte receber a maior parte dos bloqueios”, disse Claure, “o time vai se sair melhor. E se uma pessoa conseguir 90%, eventualmente ficará melhor nisso do que se dois jogadores medianos dividirem os bloqueios.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo