.
À medida que a IA se torna cada vez mais realista, nossa confiança naqueles com quem nos comunicamos pode ser comprometida. Pesquisadores da Universidade de Gotemburgo examinaram como os sistemas avançados de IA afetam nossa confiança nas pessoas com quem interagimos.
Em um cenário, um aspirante a golpista, acreditando estar ligando para um homem idoso, é conectado a um sistema de computador que se comunica por meio de loops pré-gravados. O golpista gasta um tempo considerável tentando a fraude, ouvindo pacientemente as histórias um tanto confusas e repetitivas do “homem”. Oskar Lindwall, professor de comunicação da Universidade de Gotemburgo, observa que muitas vezes leva muito tempo para as pessoas perceberem que estão interagindo com um sistema técnico.
Ele, em colaboração com o professor de informática Jonas Ivarsson, escreveu um artigo intitulado Mentes Suspeitas: O Problema da Confiança e dos Agentes de Conversação, explorando como os indivíduos interpretam e se relacionam com situações em que uma das partes pode ser um agente de IA. O artigo destaca as consequências negativas de nutrir desconfiança em relação aos outros, como os danos que isso pode causar nos relacionamentos.
Ivarsson fornece um exemplo de relacionamento romântico em que surgem problemas de confiança, levando ao ciúme e a uma tendência crescente de procurar evidências de engano. Os autores argumentam que ser incapaz de confiar totalmente nas intenções e na identidade de um parceiro de conversa pode resultar em suspeita excessiva, mesmo quando não há razão para isso.
O estudo descobriu que, durante as interações entre dois humanos, alguns comportamentos eram interpretados como sinais de que um deles era na verdade um robô.
Os pesquisadores sugerem que uma perspectiva de design abrangente está impulsionando o desenvolvimento da IA com recursos cada vez mais semelhantes aos humanos. Embora isso possa ser atraente em alguns contextos, também pode ser problemático, especialmente quando não está claro com quem você está se comunicando. Ivarsson questiona se a IA deveria ter vozes semelhantes às humanas, pois elas criam uma sensação de intimidade e levam as pessoas a formar impressões com base apenas na voz.
No caso do suposto fraudador chamando o “homem mais velho”, o golpe só é exposto depois de muito tempo, o que Lindwall e Ivarsson atribuem à credibilidade da voz humana e à suposição de que o comportamento confuso se deve à idade. Depois que uma IA tem voz, inferimos atributos como sexo, idade e histórico socioeconômico, dificultando a identificação de que estamos interagindo com um computador.
Os pesquisadores propõem a criação de IA com vozes eloquentes e funcionais que ainda são claramente sintéticas, aumentando a transparência.
A comunicação com os outros envolve não apenas engano, mas também a construção de relacionamentos e a criação de significados conjuntos. A incerteza se alguém está falando com um ser humano ou um computador afeta esse aspecto da comunicação. Embora possa não importar em algumas situações, como a terapia cognitivo-comportamental, outras formas de terapia que requerem mais conexão humana podem ser impactadas negativamente.
Jonas Ivarsson e Oskar Lindwall analisaram dados disponibilizados no YouTube. Eles estudaram três tipos de conversas e reações e comentários do público. No primeiro tipo, um robô liga para uma pessoa para marcar uma consulta de cabelo, sem o conhecimento da pessoa do outro lado da linha. No segundo tipo, uma pessoa liga para outra para o mesmo fim. No terceiro tipo, os operadores de telemarketing são transferidos para um sistema de computador com fala pré-gravada.
.