Estudos/Pesquisa

A IA pode ajudar a escrever uma mensagem para um amigo – mas não faça isso

.

Usar aplicativos de inteligência artificial para ajudar a criar uma mensagem para um amigo não é uma boa ideia – pelo menos se seu amigo descobrir sobre o uso de IA, sugere um novo estudo.

Os pesquisadores descobriram que as pessoas no estudo perceberam que um amigo fictício que usou a assistência de IA para escrever uma mensagem não se esforçou tanto quanto um amigo que escreveu uma mensagem.

Essa percepção pode ser compreensível, mas o efeito vai além da mensagem em si, disse Bingjie Liu, autor principal do estudo e professor assistente de comunicação na Universidade Estadual de Ohio.

“Depois de receberem uma mensagem assistida por IA, as pessoas se sentem menos satisfeitas com seu relacionamento com os amigos e mais incertas sobre sua posição”, disse Liu.

Mas, para ser justo com a IA, não foi apenas o uso da tecnologia que desanimou as pessoas. O estudo também encontrou efeitos negativos quando as pessoas descobriram que seus amigos recebiam ajuda de outra pessoa para escrever uma mensagem.

“As pessoas querem que os seus parceiros ou amigos se esforcem para apresentar a sua própria mensagem sem ajuda – da IA ​​ou de outras pessoas”, disse Liu.

O estudo foi publicado on-line recentemente no Jornal de Relações Sociais e Pessoais.

À medida que chatbots de IA como o ChatGPT se tornam cada vez mais populares, as questões sobre como usá-los se tornarão mais relevantes e complexas, disse Liu.

O estudo envolveu 208 adultos que participaram online. Os participantes foram informados de que eram bons amigos de alguém chamado Taylor há anos. Eles enfrentaram um de três cenários: estavam em esgotamento e precisavam de apoio, estavam tendo um conflito com um colega e precisavam de conselhos ou seu aniversário estava chegando.

Os participantes foram então instruídos a escrever uma pequena mensagem para Taylor descrevendo sua situação atual em uma caixa de texto na tela do computador.

Todos os participantes foram informados de que Taylor lhes enviou uma resposta. Nos cenários, Taylor escreveu um rascunho inicial. Alguns participantes foram informados de que Taylor tinha um sistema de IA para ajudar a revisar a mensagem para alcançar o tom adequado, outros foram informados de que um membro de uma comunidade de redatores ajudou a fazer as revisões e um terceiro grupo foi informado de que Taylor fez todas as edições na mensagem.

Em todos os casos, as pessoas no estudo ouviram a mesma coisa sobre a resposta de Taylor, inclusive que ela era “atenticada”.

Ainda assim, os participantes do estudo tinham opiniões diferentes sobre a mensagem que supostamente receberam de Taylor. Aqueles que receberam uma resposta ajudada pela IA classificaram o que Taylor fez como menos apropriado e mais impróprio do que aqueles que receberam a resposta escrita apenas por Taylor.

As respostas da IA ​​​​também levaram os participantes a expressar menos satisfação com seu relacionamento, como avaliar Taylor com uma classificação inferior em atender às “minhas necessidades como amigo próximo”.

Além disso, as pessoas no estudo ficaram mais incertas sobre o seu relacionamento com Taylor se recebessem a resposta auxiliada por IA, tendo menos certeza sobre a afirmação “Taylor gosta de mim como um amigo próximo”.

Uma possível razão pela qual as pessoas podem não gostar da resposta auxiliada pela IA pode ser o facto de as pessoas pensarem que a utilização da tecnologia é inadequada e inferior aos humanos na elaboração de mensagens pessoais como estas.

Mas os resultados mostraram que as pessoas responderam de forma igualmente negativa às respostas em que Taylor tinha outro ser humano – um membro de uma comunidade de escritores online – para ajudar com a mensagem.

“O que descobrimos é que as pessoas não acham que um amigo deva usar terceiros – IA ou outro ser humano – para ajudar a manter seu relacionamento”, disse Liu.

A razão, descobriu o estudo, foi que os participantes sentiram que Taylor despendeu menos esforço em seu relacionamento ao confiar na IA ou em outra pessoa para ajudar a elaborar uma mensagem.

Quanto mais baixos os participantes avaliaram o esforço de Taylor ao usar a IA ou outra pessoa, menos satisfeitos estavam com seu relacionamento e mais incertezas sentiam em relação à amizade.

“O esforço é muito importante num relacionamento”, disse Liu.

“As pessoas querem saber quanto você está disposto a investir em sua amizade e se acharem que você está tomando atalhos ao usar a IA para ajudar, isso não é bom.”

É claro que a maioria das pessoas não contará a um amigo que usou a IA para ajudar a elaborar uma mensagem, disse Liu. Mas ela observou que à medida que o ChatGPT e outros serviços se tornam mais populares, as pessoas podem começar a fazer um Teste de Turing mentalmente enquanto leem mensagens de amigos e outras pessoas.

A frase “Teste de Turing” às vezes é usada para se referir a pessoas que se perguntam se conseguem dizer se uma ação foi executada por um computador ou por uma pessoa.

“Pode ser que as pessoas façam secretamente este Teste de Turing em suas mentes, tentando descobrir se as mensagens têm algum componente de IA”, disse Liu. “Isso pode prejudicar os relacionamentos.”

A resposta é fazer o seu próprio trabalho nos relacionamentos, disse ela.

“Não use a tecnologia só porque é conveniente. Sinceridade e autenticidade ainda importam muito nos relacionamentos.”

Liu conduziu o estudo com Jin Kang, da Carleton University, no Canadá, e Lewen Wei, da University of New South Wales, na Austrália.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo