Ciência e Tecnologia

X Usuários que tratam Grok como uma faísca de verificações de fatos sobre as desinformação

.

Alguns usuários do X de Elon Musk estão se voltando para a AI Bot Grok de Musk para verificação de fatos, levantando preocupações entre os verificadores de fatos humanos de que isso poderia alimentar a desinformação.

No início deste mês, o X permitiu que os usuários chamassem a Grok de Xai e fizessem perguntas sobre coisas diferentes. A mudança foi semelhante à perplexidadeque está executando uma conta automatizada em X para oferecer uma experiência semelhante.

Logo depois que Xai criou a conta automatizada da GROK em X, os usuários começaram a experimentar perguntas a fazer. Algumas pessoas em mercados, incluindo a Índia, começaram a pedir a Grok para verificar comentários e perguntas que visam crenças políticas específicas.

Os verificadores de fatos estão preocupados em usar o GROK-ou qualquer outro assistente de IA desse tipo-dessa maneira porque os bots podem enquadrar suas respostas para parecer convincentes, mesmo que não estejam de fato corretos. Instâncias de espalhando notícias falsas e desinformação foram vistos com Grok no passado.

Em agosto do ano passado, cinco secretários estaduais instado Musk para implementar mudanças críticas para Grok após as informações enganosas geradas pelo assistente surgiram nas redes sociais antes da eleição dos EUA.

Outros chatbots, incluindo o ChatGPT do OpenAi e o Gemini do Google, também foram vistos gerando informações imprecisas na eleição no ano passado. Separadamente, os pesquisadores de desinformação descobriram em 2023 que a IA chatbots, incluindo o chatgpt, poderia ser facilmente usada para produzir Texto convincente com narrativas enganosas.

“Assistentes de IA, como Grok, eles são realmente bons em usar a linguagem natural e dão uma resposta que soa como um ser humano dito. E assim, os produtos de IA têm essa reivindicação sobre naturalidade e respostas sonoras autênticas, mesmo quando estão potencialmente muito erradas. Isso seria o perigo aqui”, disse Angie Holan, diretor da rede de fatos internacionais.

Grok foi convidado por um usuário em X para verificar fatos sobre reivindicações feitas por outro usuário

Ao contrário dos assistentes de IA, os verificadores de fatos humanos usam várias fontes credíveis para verificar as informações. Eles também assumem total responsabilidade por suas descobertas, com seus nomes e organizações anexados para garantir credibilidade.

Pratik Sinha, co-fundador do site de verificação de fatos sem fins lucrativos da Índia, Alt News, disse que, embora Grok pareça atualmente ter respostas convincentes, é tão bom quanto os dados com os quais é fornecido.

“Quem vai decidir quais dados é fornecida, e é aí que a interferência do governo etc. entrará em cena”, observou ele.

“Não há transparência. Qualquer coisa que não tenha transparência causará danos, porque qualquer coisa que não tenha transparência pode ser moldada de qualquer maneira.”

“Pode ser mal utilizado – para espalhar a desinformação”

Em uma das respostas publicadas no início desta semana, a conta de Grok em X reconhecido que “poderia ser mal utilizado – para espalhar a desinformação e violar a privacidade”.

No entanto, a conta automatizada não mostra nenhuma isenção de responsabilidade aos usuários quando eles obtêm suas respostas, levando -os a serem mal informados se, por exemplo, alucinaram a resposta, que é a potencial desvantagem da IA.

A resposta de Grok sobre se pode espalhar a desinformação (traduzida de Hinglish)

“Pode compensar informações para fornecer uma resposta”, disse Anushka Jain, associada de pesquisa do Laboratório de Futuros Digital Futures de Pesquisa Multidisciplinar, com sede em Goa, ao Strong The One.

Há também algumas perguntas sobre o quanto Grok usa postagens em X como dados de treinamento e quais medidas de controle de qualidade ele usa para verificar essas postagens. No verão passado, ele empurrou uma alteração que parecia permitir que a GROK consumisse X dados do usuário por padrão.

A outra área relativa de assistentes de IA como Grok sendo acessível através de plataformas de mídia social é a entrega de informações em público – ao contrário do ChatGPT ou de outros chatbots sendo usados ​​em particular.

Mesmo que um usuário esteja ciente de que as informações que obtém do assistente podem ser enganosas ou não estão completamente corretas, outras pessoas da plataforma ainda podem acreditar.

Isso pode causar danos sociais sérios. Instâncias disso foram vistas no início da Índia quando A desinformação circulava sobre o WhatsApp levou a linchamentos da máfia. No entanto, esses incidentes graves ocorreram antes da chegada de Genai, o que tornou ainda mais fácil a geração de conteúdo sintético e parece mais realista.

“Se você vê muitas dessas respostas GROK, você vai dizer, ei, bem, a maioria deles está certa, e isso pode ser assim, mas haverá alguns que estão errados. E quantas? Não é uma fração pequena. Alguns dos estudos de pesquisa demonstraram que os modelos de IA estão sujeitos a 20% de taxas de erro … e quando isso se dê errado, pode dar errado com as conseqüências reais, se as conseqüências.

Ai vs. verificações reais de fatos

Enquanto as empresas de IA, incluindo a XAI, estão refinando seus modelos de IA para fazê -los se comunicar mais como os seres humanos, elas ainda não são – e não podem – substituir os seres humanos.

Nos últimos meses, as empresas de tecnologia estão explorando maneiras de reduzir a dependência de verificadores de fatos humanos. Plataformas como X e Meta começaram a adotar o novo conceito de verificação de fatos de crowdsourcing através das chamadas notas da comunidade.

Naturalmente, essas mudanças também causam preocupação com os verificadores de fatos.

Sinha da Alt News acredita otimista que as pessoas aprenderão a diferenciar entre máquinas e verificadores de fatos humanos e valorizarão mais a precisão dos humanos.

“Vamos ver o pêndulo voltar, eventualmente em direção a mais verificações de fatos”, disse Holan, da IFCN.

No entanto, ela observou que, enquanto isso, os verificadores de fatos provavelmente terão mais trabalho a ver com as informações geradas pela IA que se espalham rapidamente.

“Muito dessa questão depende, você realmente se importa com o que é realmente verdadeiro ou não? Você está apenas procurando o verniz de algo que soa e se sente verdadeiro sem ser verdade? Porque é isso que a assistência da IA ​​o levará”, disse ela.

X e Xai não responderam ao nosso pedido de comentário.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo