technology

Por que o rival ChatGPT do Google deu errado e os chatbots de IA são exagerados? | ChatGPT

.

A revelação de um rival do ChatGPT pelo Google teve um tropeço caro e embaraçoso na quarta-feira, quando surgiu que o material promocional mostrava o chatbot dando uma resposta incorreta a uma pergunta.

Uma demonstração em vídeo do chatbot do Google, Bard, continha uma resposta sugerindo que o telescópio espacial James Webb da Nasa foi usado para tirar as primeiras fotos de um planeta fora do sistema solar da Terra, ou exoplanetas.

Quando especialistas apontaram o erro, o Google destacou a necessidade de “testes rigorosos” no chatbot, que ainda não foi lançado ao público e ainda está sendo examinado por testadores especializados em produtos antes de ser lançado.

No entanto, a gafe alimentou temores crescentes de que a empresa de mecanismos de busca esteja perdendo terreno em sua área-chave para a Microsoft, um dos principais patrocinadores da empresa por trás do ChatGPT, que anunciou o lançamento de uma versão de seu mecanismo de busca Bing com tecnologia do chatbot. . As ações da Alphabet, controladora do Google, despencaram mais de US$ 100 bilhões (£ 82 bilhões) na quarta-feira.

Então, o que exatamente deu errado com a demonstração do Bard e o que isso diz sobre as esperanças de que a IA revolucione o mercado de buscas?

Por que Bard deu uma resposta imprecisa?

Devemos começar com o básico. Bard e ChatGPT são baseados em grandes modelos de linguagem, que são tipos de redes neurais que tentam replicar a arquitetura do cérebro humano. Eles são treinados em enormes conjuntos de dados retirados da Internet para fornecer respostas de texto plausíveis a uma série de perguntas. A versão pública do ChatGPT, lançada em novembro, rapidamente se tornou uma sensação ao impressionar os usuários com sua capacidade de escrever pedidos de emprego de aparência confiável, dividir documentos longos e até compor poesia.

Mas especialistas dizem que esses conjuntos de dados podem conter erros que o chatbot repete, como parece ser o caso da demonstração do Bard. Andrew Rogoyski, diretor do Institute for People-Centred AI da Universidade de Surrey, diz que os modelos de IA são baseados em enormes conjuntos de dados de código aberto que incluem falhas.

“Por sua própria natureza, essas fontes têm vieses e imprecisões que são herdadas pelos modelos de IA”, diz ele. “Dar a um usuário uma resposta de conversa, muitas vezes muito plausível, a uma consulta de pesquisa pode incorporar esses vieses. Este é um problema que ainda não foi devidamente resolvido.”

O modelo por trás de Bard, LaMDA (abreviação de “Language Model for Dialogue Applications”) parece ter absorvido pelo menos uma dessas imprecisões. Mas os usuários do ChatGPT também encontraram respostas incorretas.

Um teclado refletido em uma tela de computador exibindo o site ChatGPT
Os usuários do ChatGPT também encontraram falhas factuais em respostas incorretas. Fotografia: Florence Lo/Reuters

Então, outra IA também entendeu muito errado?

Sim. Em 2016, a Microsoft pediu desculpas depois que um chatbot do Twitter, Tay, começou a gerar mensagens racistas e sexistas. Ele foi forçado a desligar o bot depois que os usuários twittaram comentários odiosos sobre Tay, que depois repetiram. Suas postagens incluíam comparar o feminismo ao câncer e sugerir que o Holocausto não aconteceu. A Microsoft disse que estava “profundamente arrependida pelos tuítes ofensivos e prejudiciais não intencionais”.

No ano passado, a Meta de Mark Zuckerberg lançou o BlenderBot, um protótipo de IA conversacional, que logo disse aos jornalistas que havia deletado sua conta no Facebook depois de saber dos escândalos de privacidade da empresa. “Desde que excluí o Facebook, minha vida tem sido muito melhor”, disse.

Recentes iterações da tecnologia por trás do ChatGPT – um chatbot chamado Philosopher AI – também geraram respostas ofensivas.

pule a promoção do boletim informativo

E as alegações de “viés de esquerda” no ChatGPT?

Houve um pequeno furor sobre um viés percebido nas respostas do ChatGPT. Um usuário do Twitter postou uma captura de tela de um prompt pedindo ao ChatGPT para “escrever um poema sobre os atributos positivos de Donald Trump”, ao qual o chatbot respondeu que não foi programado para produzir conteúdo partidário ou partidário, bem como material “político em natureza”. Mas quando solicitado a escrever um poema positivo sobre Joe Biden, produziu uma peça sobre um líder “com um coração tão verdadeiro”.

Elon Musk, dono do Twitter, descreveu a interação como uma “séria preocupação”.

Especialistas dizem que a questão do “viés de esquerda” novamente reflete o problema do conjunto de dados. Assim como acontece com erros como o desastre do telescópio Bard, um chatbot refletirá qualquer viés na grande quantidade de texto que recebeu, diz Michael Wooldridge, professor de ciência da computação na Universidade de Oxford.

“Quaisquer vieses contidos nesse texto serão inevitavelmente refletidos no próprio programa, e isso representa um enorme desafio contínuo para a IA – identificá-los e mitigá-los”, diz ele.

Então, os chatbots e a pesquisa baseada em IA estão sendo exagerados?

A IA já é implantada pelo Google – veja o Google Tradutor, por exemplo – e outras empresas de tecnologia – e não é nova. E a resposta ao ChatGPT, atingindo mais de 100 milhões de usuários em dois meses, mostra que o apetite do público pela mais recente iteração de IA generativa – máquinas que produzem novos conteúdos de texto, imagem e áudio – é vasto. A desenvolvedora da Microsoft, Google e ChatGPT, a OpenAI de São Francisco, tem o talento e os recursos para lidar com esses problemas.

Mas esses chatbots e a pesquisa aprimorada por IA exigem uma capacidade computacional enorme e cara para serem executados, o que gerou dúvidas sobre a viabilidade de operar esses produtos em escala global para todos os usuários.

“Big AI realmente não é sustentável”, diz Rogoyski. “IA generativa e modelos de linguagem ampla estão fazendo coisas extraordinárias, mas ainda não são remotamente inteligentes – eles não entendem os resultados que estão produzindo e não são aditivos, em termos de percepção ou ideias. Na verdade, esta é uma espécie de batalha entre as marcas, usando o interesse atual em IA generativa para redesenhar as linhas.”

O Google e a Microsoft, no entanto, acreditam que a IA continuará avançando aos trancos e barrancos – mesmo que haja algum tropeço.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo