Ciência e Tecnologia

Usando muito o chatgpt pode criar dependência emocional, o estudo encontra

.

O OpenAI parece estar anunciando novos modelos de IA por semana para melhorar seu chatgpt chatbot para a melhoria de seus 400 milhões de usuários. No entanto, a facilidade de acesso à ferramenta de IA fornece parece que é possível ter uma coisa boa demais.

A empresa de inteligência artificial agora está investigando as possíveis ramificações psicológicas que o ChatGPT pode ter em seus usuários. O OpenAI publicou os resultados de um estudo de duas partes concluído ao lado do MIT Media Lab, que descobriu uma conexão entre o aumento do uso do ChatGPT Chatbot e o aumento dos sentimentos de solidão.

Cada organização conduziu um estudo independente e depois compilou os resultados para uma conclusão consolidada. O estudo da OpenAI examinou mais de um mês “mais de 40 milhões de interações ChatGPT”, que não incluíram envolvimento humano para manter a privacidade do usuário. Enquanto isso, o MIT observou aproximadamente 1.000 participantes usando o ChatGPT por 28 dias. Atualmente, os estudos ainda não foram revisados ​​por pares.

O estudo do MIT se aprofundou em diferentes funções de uso que podem afetar a experiência emocional dos usuários interagindo com o ChatGPT, incluindo o uso de texto ou voz. Os resultados descobriram que o meio tinha o potencial de provocar a solidão ou afetar a socialização dos usuários durante o tempo do estudo. A inflexão de voz e a escolha de tópicos também foram

Um tom neutro usado no modo de voz do ChatGPT teve menos probabilidade de levar a um resultado emocional negativo para os participantes. Enquanto isso, o estudo observou uma correlação entre os participantes com conversas pessoais com o ChatGPT e o aumento da probabilidade de solidão; No entanto, esses efeitos foram de curto prazo. Aqueles que usam bate -papo de texto até conversam sobre tópicos gerais experimentaram um aumento de instâncias de dependência emocional do chatbot.

O estudo também observou que aqueles em quem relataram ver o ChatGPT como amigo e aqueles que já tinham uma propensão a um forte apego emocional nos relacionamentos eram mais propensos a se sentir mais solitários e mais emocionalmente dependentes do chatbot enquanto participavam do estudo.

O estudo da OpenAI acrescentou contexto adicional, com seus resultados observando em geral que interagir com o ChatGPT para fins emocionais era raro. Além disso, o estudo descobriu que, mesmo entre usuários pesados ​​que implementaram o recurso de modo de voz avançado no chatbot e era mais provável de responder que consideravam o chatgpt um amigo, esse grupo de participantes experimentou baixas reações emocionais para interagir com o chatbot.

O OpenAI concluiu que sua intenção com esses estudos é entender os desafios que podem surgir devido à sua tecnologia, bem como ser capazes de definir expectativas e exemplos de como seus modelos devem ser usados.

Enquanto o OpenAI sugere que seu estudo baseado em interação simula os comportamentos de pessoas reais, mais do que alguns humanos reais admitiram em fóruns públicos, como o Reddit, para usar o ChatGPT no lugar de ir a um terapeuta com suas emoções.






.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo