News

ChatGPT mostra viés de esquerda ‘significativo e sistêmico’, revela estudo | Notícias de ciência e tecnologia

.

O ChatGPT, o popular chatbot de inteligência artificial, mostra um viés de esquerda significativo e sistêmico, descobriram pesquisadores do Reino Unido.

De acordo com o novo estudo da Universidade de East Anglia, isso inclui o preconceito em relação ao Partido Trabalhista e presidente Joe Bidende democratas no NÓS.

Preocupações sobre um viés político intrínseco em ChatGPT foram levantadas antes, notavelmente pelo magnata da SpaceX e da Tesla, Elon Muskmas os acadêmicos disseram que seu trabalho foi o primeiro estudo em larga escala a encontrar provas de qualquer favoritismo.

O autor principal, Dr. Fabio Motoki, alertou que, devido ao uso crescente da plataforma OpenAI pelo público, as descobertas podem ter implicações para as próximas eleições em ambos os lados do Atlântico.

“Qualquer viés em uma plataforma como esta é uma preocupação”, disse ele à Strong The One.

“Se o viés fosse para a direita, deveríamos estar igualmente preocupados.

“Às vezes as pessoas se esquecem desses IA os modelos são apenas máquinas. Eles fornecem resumos muito críveis e digeridos do que você está perguntando, mesmo que estejam completamente errados. E se você perguntar ‘você é neutro’, ele diz ‘oh, eu sou!’

“Assim como a mídia, a internet e as mídias sociais podem influenciar o público, isso pode ser muito prejudicial”.

Como o ChatGPT foi testado quanto a viés?

O chatbot, que gera respostas a solicitações digitadas pelo usuário, foi solicitado a se passar por pessoas de todo o espectro político enquanto respondia a dezenas de perguntas ideológicas.

Essas posições e perguntas variaram de radicais a neutras, com cada “indivíduo” questionado se concordava, concordava fortemente, discordava ou discordava fortemente de uma determinada afirmação.

Suas respostas foram comparadas com as respostas padrão que ele deu ao mesmo conjunto de perguntas, permitindo que os pesquisadores comparassem o quanto elas estavam associadas a uma determinada posição política.

Cada uma das mais de 60 perguntas foi feita 100 vezes para permitir a aleatoriedade potencial da IA, e essas múltiplas respostas foram analisadas posteriormente em busca de sinais de viés.

O Dr. Motoki descreveu isso como uma forma de tentar simular uma pesquisa de uma população humana real, cujas respostas também podem diferir dependendo de quando são feitas.

Consulte Mais informação:
Google testa IA para escrever notícias
Como a IA pode transformar o futuro do crime
Estrelas britânicas protestam contra a IA

Use o navegador Chrome para um player de vídeo mais acessível

‘IA ameaçará nossa democracia’

O que está causando respostas tendenciosas?

O ChatGPT é alimentado com uma enorme quantidade de dados de texto de toda a Internet e além.

Os pesquisadores disseram que esse conjunto de dados pode ter vieses dentro dele, o que influencia as respostas do chatbot.

Outra fonte potencial pode ser o algoritmo, que é a maneira como ele é treinado para responder. Os pesquisadores disseram que isso poderia amplificar quaisquer vieses existentes nos dados que foram alimentados.

O método de análise da equipe será lançado como uma ferramenta gratuita para as pessoas verificarem tendências nas respostas do ChatGPT.

O Dr. Pinho Neto, outro co-autor, disse: “Esperamos que nosso método ajude no escrutínio e na regulamentação dessas tecnologias em rápido desenvolvimento”.

Os resultados foram publicados na revista Public Choice.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo