.

Modelos de linguagem grande (LLMs) como ChatGPT e Google Bard podem fornecer alguns respostas decentes para certos tipos de perguntas, mas esses computadores são ironicamente muito ruins em computar coisas. O Google tem uma nova solução para tentar fazer com que os modelos de linguagem executem tarefas simples, como matemática, corretamente: fazer com que a IA escreva um programa. O Google diz que agora, quando você pede a Bard uma tarefa “computacional” como matemática ou manipulação de strings, em vez de mostrar a saída do modelo de linguagem, esse modelo de linguagem escreverá um programa, executará esse programa e mostrará a saída desse programa para o usuário como uma resposta.
A postagem no blog do Google fornece o exemplo de entrada “Inverta a palavra ‘pirulito’ para mim”. O ChatGPT falha nessa questão e fornece a resposta incorreta “pillopoL”, porque os modelos de linguagem veem o mundo em pedaços de palavras, ou “tokens”, e eles simplesmente não são bons nisso. Aqui está a saída de exemplo de Bard:

Ele obtém a saída correta como “popilloL”, mas o mais interessante é que também inclui o código python escreveu para responder à pergunta. Isso é legal para as pessoas que pensam em programação verem sob o capô, mas uau, essa é provavelmente a saída mais assustadora de todas para pessoas comuns. Também não é particularmente relevante. Imagine se o Gmail mostrasse um bloco de código quando você apenas pedisse para buscar e-mails. É estranho. Apenas faça o trabalho que lhe foi pedido, Bard.
O Google compara um modelo de IA escrevendo um programa a humanos fazendo uma divisão longa, pois é um modo diferente de pensar:
Essa abordagem se inspira em uma dicotomia bem estudada na inteligência humana, notadamente abordada no livro de Daniel Kahneman Pensando, rápido e lento— a separação do pensamento do “Sistema 1” e do “Sistema 2”.
- O pensamento do Sistema 1 é rápido, intuitivo e sem esforço. Quando um músico de jazz improvisa na hora ou um digitador pensa em uma palavra e a vê aparecer na tela, eles estão usando o pensamento do Sistema 1.
- O pensamento do Sistema 2, ao contrário, é lento, deliberado e trabalhoso. Quando você está realizando uma divisão longa ou aprendendo a tocar um instrumento, está usando o Sistema 2.
Nessa analogia, os LLMs podem ser pensados como operando puramente sob o Sistema 1 – produzindo texto rapidamente, mas sem reflexão profunda. Isso leva a alguns recursos incríveis, mas pode ser insuficiente de maneiras surpreendentes. (Imagine tentar resolver um problema de matemática usando o Sistema 1 sozinho: você não pode parar e fazer a aritmética, você só precisa cuspir a primeira resposta que vier à mente.) A computação tradicional está intimamente alinhada com o pensamento do Sistema 2: é estereotipado e inflexível, mas a sequência correta de etapas pode produzir resultados impressionantes, como soluções para divisões longas.
O Google diz que esse método de “escrever código em tempo real” também será usado para perguntas como: “Quais são os fatores primos de 15683615?” e “Calcule a taxa de crescimento de minhas economias”. A empresa diz: “Até agora, vimos esse método melhorar a precisão das respostas de Bard a problemas matemáticos e de palavras baseados em computação em nossos conjuntos de dados de desafio interno em aproximadamente 30%”. Como de costume, o Google avisa Bard “pode não acertar” devido a interpretar sua pergunta de maneira errada ou apenas, como todos nós, escrever um código que não funciona na primeira vez.
Bard está codificando respostas em tempo real agora, se você quiser tentar em bard.google.com.
.