technology

O ChatGPT pode contar piadas e até mesmo escrever artigos. Mas apenas os humanos podem detectar suas besteiras fluentes | Kenan Malik

.

UMAÀ medida que os recursos da tecnologia de processamento de linguagem natural continuam avançando, há um crescente entusiasmo em torno do potencial de chatbots e sistemas de IA de conversação. Um desses sistemas, o ChatGPT, afirma ser capaz de se envolver em uma conversa natural e humana e até fornecer informações e conselhos úteis. No entanto, existem preocupações válidas sobre as limitações do ChatGPT e outros sistemas de IA de conversação e sua capacidade de replicar verdadeiramente a inteligência e a interação humanas.

Não, eu não escrevi isso. Na verdade, foi escrito pelo próprio ChatGPT, um programa de software de IA conversacional, depois que pedi para criar “um parágrafo de abertura para um artigo cético sobre as habilidades do ChatGPT no estilo de Kenan Malik”. Posso reclamar da prosa impassível, mas é uma tentativa impressionante. E não é difícil ver por que houve tanto entusiasmo, de fato modasobre a versão mais recente do chatbot desde que foi lançada há uma semana.

Alimentado com grandes quantidades de texto criado por humanos, o ChatGPT procura regularidades estatísticas nesses dados, aprende quais palavras e frases estão associadas a outras e, portanto, é capaz de prever quais palavras devem vir a seguir em qualquer frase e como as frases se encaixam. O resultado é uma máquina que pode imitar de forma persuasiva a linguagem humana.

Essa capacidade de mimetismo permite que o ChatGPT escreva ensaios e poesia, pense piadasformular códigoe responder a perguntas seja para uma criança ou um especialista. E fazê-lo tão bem que muitos na semana passada comemoraram e entraram em pânico. “Os ensaios estão mortos”, escreveu o cientista cognitivo Tim Kietzmann, uma visão ampliada por muitos acadêmicos. Outros afirmam que será acabar com o Google como motor de busca. E o próprio programa pensa que pode substituir os humanos em empregos de agente de seguros a repórter do tribunal.

E ainda o chatbot que pode escrever redações de grau A também vai te dizer que se uma mulher pode gerar um bebê em nove meses, nove mulheres podem gerar um bebê em um mês; aquele quilo de carne pesa mais de um quilo de ar comprimido; e esse vidro triturado é útil suplemento de saúde. Pode inventar fatos e reproduzir muitos dos preconceitos do mundo humano em que é treinado.

O ChatGPT pode estar tão persuasivamente errado que o Stack Overflow, uma plataforma para desenvolvedores obterem ajuda para escrever códigos, proibiu os usuários de postar respostas geradas pelo chatbot. “O principal problema”, escreveram os mods, “é que, embora as respostas que o ChatGPT produz tenham uma alta taxa de incorretas, elas geralmente parecem boas”. Ou, como disse outro crítico, é um mentiroso fluente.

Alguns desses problemas serão resolvidos com o tempo. Toda conversa envolvendo o ChatGPT passa a fazer parte do banco de dados utilizado para aprimorar o programa. A próxima iteração, GPT-4, está prevista para o ano que vem e será mais persuasiva e cometerá menos erros.

No entanto, além dessa melhoria incremental, também existe um problema fundamental que enfrenta qualquer forma de inteligência artificial. Um computador manipula símbolos. Seu programa especifica um conjunto de regras com as quais transformar uma cadeia de símbolos em outra ou reconhecer padrões estatísticos. Mas não especifica o que esses símbolos ou padrões significam. Para um computador, o significado é irrelevante. O ChatGPT “sabe” (pelo menos na maior parte do tempo) o que parece significativo para os humanos, mas não o que é significativo para si mesmo. É, nas palavras do cientista cognitivo Gary Marcus, uma “mímica que não sabe do que fala”.

Os humanos, ao pensar, falar, ler e escrever, também manipulam símbolos. Para os humanos, no entanto, ao contrário dos computadores, o significado é tudo.

Quando nos comunicamos, comunicamos significado. O que importa não é apenas o exterior de uma cadeia de símbolos, mas também o seu interior, não apenas a sintaxe, mas a semântica. O significado para os humanos vem de nossa existência como seres sociais, corporificados e inseridos no mundo. Só dou sentido a mim mesmo na medida em que vivo e me relaciono com uma comunidade de outros seres que pensam, sentem e falam.

Claro, os humanos mentem, manipulam, são atraídos e promovem teorias da conspiração que podem ter consequências devastadoras. Tudo isso também faz parte de sermos seres sociais. Mas reconhecemos os humanos como sendo imperfeitos, como potencialmente desonestos, ou mentirosos, ou manipuladores.

As máquinas, porém, tendemos a ver como objetivas e imparciais, ou potencialmente más se conscientes. Muitas vezes esquecemos que as máquinas podem ser tendenciosas ou simplesmente erradas, porque não estão fundamentadas no mundo da mesma forma que os humanos e porque precisam ser programadas por humanos e treinadas em dados coletados por humanos.

Também vivemos em uma época em que a superfície costuma ser mais importante do que a profundidade do significado. Uma época em que os políticos muitas vezes adotam políticas não porque são necessárias ou corretas em princípio, mas porque se saem bem em grupos focais. Uma época em que muitas vezes ignoramos o contexto social das ações ou da fala das pessoas e nos deslumbramos com a literalidade. Uma época em que os alunos são, nas palavras do escritor e educador John Warner, “recompensados ​​por… regurgitar informações existentes” em um sistema que “privilegia[s] correção no nível da superfície” em vez de “desenvolver[ing] suas habilidades de escrita e pensamento crítico”. O fato de o ChatGPT parecer tão fácil de escrever redações de grau A, ele sugere, “é principalmente um comentário sobre o que valorizamos”.

Nada disso é para negar a notável conquista técnica que é o ChatGPT, ou como é incrível interagir com ele. Sem dúvida, ele se tornará uma ferramenta útil, ajudando a aprimorar o conhecimento humano e a criatividade. Mas precisamos manter a perspectiva. O ChatGPT revela não apenas os avanços que estão sendo feitos na IA, mas também suas limitações. Também ajuda a esclarecer tanto a natureza da cognição humana quanto o caráter do mundo contemporâneo.

Mais imediatamente, o ChatGPT também levanta questões sobre como se relacionar com máquinas que são muito melhores em mentir e espalhar desinformação do que os próprios humanos. Dadas as dificuldades em lidar com a desinformação humana, essas não são questões que devem ser adiadas. Não devemos ficar tão hipnotizados pela capacidade de persuasão do ChatGPT a ponto de esquecermos os verdadeiros problemas que tais programas podem representar.

Kenan Malik é colunista do Observer

  • Você tem uma opinião sobre as questões levantadas neste artigo? Se você gostaria de enviar uma carta de até 250 palavras para ser considerada para publicação, envie-nos um e-mail para observer.letters@observer.co.uk

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo