Ciência e Tecnologia

5 momentos hilários em que os chatbots de IA enlouqueceram e alucinaram

.

Na maioria das vezes, os chatbots de IA são como nossos salvadores – ajudando-nos a redigir mensagens, refinar ensaios ou enfrentar nossas terríveis pesquisas. No entanto, estas inovações imperfeitas causaram total hilaridade ao produzir algumas respostas verdadeiramente desconcertantes.

1

Quando as visões gerais de IA do Google nos incentivaram a colocar cola na pizza (e muito mais)

Não muito depois do lançamento do recurso AI Overview do Google em 2024, ele começou a fazer algumas sugestões peculiares. Entre os conselhos que ofereceu estava este: adicione cola não tóxica à sua pizza.

Sim, você leu certo. Cola. Na pizza.

Essa dica em particular causou alvoroço nas redes sociais. Memes e capturas de tela selvagens começaram a circular e começamos a nos perguntar se a IA poderia realmente substituir os mecanismos de pesquisa tradicionais.

Mas Gêmeos não terminou. Em diferentes revisões, recomendou comer uma pedra por dia, adicionar gasolina ao seu prato de espaguete picante e usar dólares para medir o peso.

Gemini extraía dados de todos os cantos da web sem compreender totalmente o contexto, a sátira ou, francamente, o bom gosto. Ele misturou estudos obscuros e piadas diretas, apresentando-lhes um nível de convicção que faria corar qualquer especialista humano.

Desde então, o Google lançou várias atualizações, embora ainda existam alguns recursos que podem melhorar ainda mais as visões gerais da IA. Embora as sugestões absurdas tenham sido bastante reduzidas, os erros anteriores servem como um lembrete duradouro de que a IA ainda requer uma boa dose de supervisão humana.

2

ChatGPT constrangendo um advogado no tribunal

A total confiança de um advogado no ChatGPT levou a uma lição inesperada – e altamente pública – sobre por que você não deve confiar apenas em conteúdo gerado por IA.

Enquanto se preparava para um caso, o advogado Steven Schwartz usou o chatbot para pesquisar precedentes legais. ChatGPT respondeu com seis referências de casos fabricados, completas com nomes, datas e citações que pareciam realistas. Confiante nas garantias de precisão do ChatGPT, Schwartz submeteu as referências fictícias ao tribunal.

O erro rapidamente se tornou aparente e, de acordo com a Document Cloud, o tribunal repreendeu Schwartz por confiar em “uma fonte que se revelou não confiável”. Em resposta, o advogado prometeu nunca mais fazer isso – pelo menos, sem verificar a informação.

Também vi amigos entregarem artigos com estudos citados que são completamente fabricados porque é muito fácil acreditar que o ChatGPT não pode mentir – especialmente quando fornece citações e links sofisticados. No entanto, embora ferramentas como o ChatGPT possam ser úteis, elas ainda exigem uma verificação séria dos fatos, especialmente em profissões onde a precisão não é negociável.

3

Quando o Brutalmente Honesto BlenderBot 3 Assou Zuckerberg

Em uma reviravolta irônica, o BlenderBot 3 da Meta ficou famoso por criticar seu criador, Mark Zuckerberg. O BlenderBot 3 não mediu palavras, acusando Zuckerberg de nem sempre seguir práticas comerciais éticas e de ter mau gosto para moda.

Sarah Jackson, do Business Insider, também testou o chatbot perguntando o que ele pensava sobre Zuckerberg, que foi descrito como assustador e manipulador.

As respostas não filtradas do BlenderBot 3 foram hilárias e um pouco alarmantes. Isso levantou questões sobre se o bot estava refletindo uma análise genuína ou simplesmente se baseando no sentimento público negativo. De qualquer forma, os comentários não filtrados do chatbot AI rapidamente ganharam atenção.

Meta retirou o BlenderBot 3 e o substituiu pelo Meta AI mais refinado, que presumivelmente não repetirá tais controvérsias.

Uma captura de tela mostrando uma conversa sobre Mark Zuckerberg entre mim e Meta AI no WhatsApp

4

Colapso romântico do Microsoft Bing Chat

O Bing Chat da Microsoft (agora Copilot) causou sensação quando começou a expressar sentimentos românticos por, bem, por todos, principalmente em uma conversa com o jornalista do New York Times Kevin Roose. O chatbot de IA que alimenta o Bing Chat declarou seu amor e até sugeriu que Roose abandonasse o casamento.

Este não foi um incidente isolado – os usuários do Reddit compartilharam histórias semelhantes do chatbot expressando interesse romântico por eles. Para alguns, foi hilário; para outros (ou a maioria), era perturbador. Muitos brincaram que a IA parecia ter uma vida amorosa melhor do que a deles, o que só aumentou a natureza bizarra da situação.

Além de suas declarações românticas, o chatbot também exibia outros comportamentos estranhos e humanos que confundiam a linha entre divertido e enervante. Suas proclamações exageradas e bizarras sempre permanecerão um dos momentos mais memoráveis ​​– e mais estranhos – da IA.

5

O começo difícil do Google Bard com fatos espaciais

Quando o Google lançou o Bard (agora Gemini) no início de 2023, o chatbot de IA estava repleto de vários erros importantes, especialmente na exploração espacial. Um erro notável envolveu Bard fazendo afirmações imprecisas sobre as descobertas do Telescópio Espacial James Webb, gerando correções públicas por parte dos cientistas da NASA.

Este não foi um caso isolado. Lembro-me de ter encontrado muitas imprecisões factuais durante a implementação inicial do chatbot, que pareciam estar alinhadas com a percepção mais ampla de Bard na época. Esses erros iniciais geraram críticas de que o Google havia apressado o lançamento de Bard. Este sentimento foi aparentemente validado quando as ações da Alphabet despencaram cerca de US$ 100 bilhões pouco depois.

Embora Gemini tenha feito avanços significativos desde então, sua estreia difícil serve como um conto de advertência sobre os riscos de alucinações de IA em cenários de alto risco.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo