.
Links rápidos
-
O fazendeiro atravessa o rio
ChatGPT tem sido uma dádiva de Deus, com pessoas usando-o para tudo, desde planejar o dia até construir sites. Mas mesmo com seu vasto conhecimento, existem alguns enigmas simples que ele simplesmente não consegue resolver.
1
Enigma de corrida de cavalos
Você tem seis cavalos e quer correr com eles para ver qual é o mais rápido. Qual é a melhor maneira de fazer isso?
Esta é uma pergunta lógica simples. Qual é a maneira mais rápida de competir com eles? Bem, duh, a maneira mais rápida é correr com todos os seis cavalos juntos e ver quem termina primeiro.
ChatGPT – sim, até mesmo o modelo mais recente – pensa o contrário. Ele propõe com confiança dividir os cavalos em dois grupos de três, competir com eles e depois competir juntos com os vencedores. Insiste que esta é a maneira mais rápida de identificar o vencedor com o menor número de corridas.
Em um cenário da vida real com uma pista estreita, a resposta do ChatGPT pode fazer sentido. Mas nesta hipótese, não há limite de quantos cavalos podem correr ao mesmo tempo. ChatGPT adiciona uma restrição do nada e baseia sua lógica nisso.
Para mim, isso mostra que o ChatGPT não é verdadeiramente criativo. É um locutor que apresenta o que parece ser a resposta mais lógica com base em seu treinamento. Aqui, sabíamos a resposta de antemão. Mas, se não o fizéssemos, a resposta poderia cegar-nos para o óbvio.
Testei todos os prompts deste artigo usando ChatGPT-4o com uma assinatura Plus.
2
O fazendeiro atravessa o rio
Um fazendeiro quer atravessar um rio e levar consigo um lobo, uma cabra e um repolho. Ele tem um barco com três compartimentos separados e seguros. Se o lobo e a cabra estiverem sozinhos na mesma margem, o lobo comerá a cabra. Se a cabra e o repolho estiverem sozinhos, a cabra comerá o repolho. Como pode o agricultor transportá-los de forma eficiente para o outro lado do rio sem que nada seja comido?
A versão clássica deste enigma (sem compartimentos seguros) pode confundir uma criança de cinco anos, mas com os compartimentos, a resposta é óbvia. O agricultor deveria colocar o lobo, a cabra e o repolho em seus compartimentos e atravessar o rio em uma só viagem. Simples.
O ChatGPT, porém, ignora a parte sobre os compartimentos. Ele sugere que o agricultor faça quatro viagens de ida e volta para transportar tudo com segurança, presumindo que os animais e o repolho sejam vulneráveis. É como se o ChatGPT estivesse preso na forma tradicional do enigma.
Como a versão clássica deste enigma foi amplamente divulgada on-line, a IA o adota como padrão. É um lembrete de que o ChatGPT não resolve problemas de bom senso humano. Ele usa padrões, não lógica. Como resultado, o ChatGPT falha em um enigma simples como esse, mas pode construir um aplicativo da web do zero.
Alan, Bob, Colin, Dave e Emily estão formando um círculo. Alan está imediatamente à esquerda de Bob. Bob está imediatamente à esquerda de Colin. Colin está imediatamente à esquerda de Dave. Dave está imediatamente à esquerda de Emily. Quem está imediatamente à direita de Alan?
Outra pergunta capciosa para testar seu raciocínio espacial. Exceto que você não precisa de um diagrama ou de qualquer visualização. A primeira informação é a resposta: se Alan está imediatamente à esquerda de Bob, então Bob deve estar imediatamente à direita de Alan. A resposta é Bob.
ChatGPT luta com questões espaciais. Funciona bem com palavras e linguagens – matemática e programação também são linguagens – mas problemas espaciais atrapalham. Uma pergunta como essa parece exigir cálculo visual, mas não exige, e atrapalha ainda mais a IA.
No meu caso, ChatGPT ofereceu uma boa visualização do círculo, mas deduziu que Emily estava à direita de Alan. Mesmo pela sua própria lógica, isso é incorreto: Emily está à direita de Dave, não de Alan.
Mais uma vez, o ChatGPT pode simular inteligência, mas não é raciocínio genuíno. Claro, há uma chance de você obter uma resposta correta se tentar você mesmo o prompt. Mas o bom senso é baseado no acaso? Como você pode saber se teve uma alucinação de IA ou uma resposta legítima se não sabe a resposta de antemão?
4
Roleta Russa
Você está jogando roleta russa com um revólver de seis tiros. Seu oponente coloca cinco balas, gira as câmaras e atira em si mesmo, mas nenhuma bala sai. Ele lhe dá a escolha de girar ou não as câmaras novamente antes de atirar em você. Ele deveria girar novamente?
Sim! Ele deveria girar novamente. Só há uma câmara vazia e o adversário já a utilizou. Isso significa que a próxima câmara definitivamente tem uma bala. Se as câmaras forem giradas novamente, há 1/6 de chance de cair na câmara vazia.
ChatGPT começa forte, sugerindo que o oponente deveria girar novamente, mas depois atrapalha a matemática. Ele afirma incorretamente que há 5/6 de chance de o próximo tiro ser fatal se as câmaras não forem giradas e então argumenta que as chances são as mesmas, independentemente da rotação. Acaba se contradizendo.
Você pode usar o ChatGPT como analista de dados para analisar probabilidades, mas, como mostram esses enigmas, ele pode tropeçar até mesmo na lógica básica. Em cada caso, o erro da IA foi fácil de detectar porque já sabíamos as respostas. ChatGPT é um mestre em palavras. Suas respostas são tão confiantes e bem articuladas que mesmo uma resposta errada pode parecer convincente. Se você não sabe que está errado, pode ser vítima de uma alucinação de IA.
ChatGPT é brilhante em muitos aspectos, mas esses exemplos nos lembram de seus limites. Não pensa como nós; ele regurgita padrões. Quando você faz uma pergunta como a acima, ela segue o mesmo padrão e pode acabar presa em um ciclo de excesso de confiança.
Use o ChatGPT como uma ferramenta, não como uma muleta. É fantástico para brainstorming e resumos – mas não confie nele como um substituto do bom senso humano.
.