.

O que você precisa saber
- Os usuários acessaram o Reddit para relatar e mostrar a estranha série de respostas sem sentido e sem sentido do Gemini às perguntas.
- Muitos dos exemplos destacam o Gemini entregando enormes paredes de texto com palavras repetidas, caracteres aleatórios e trechos de código.
- Os problemas ocorreram nas variantes do Gemini para web e Android, mas reafirmar sua pergunta parece trazer o Gemini de volta à forma.
O chatbot Gemini de IA do Google tem encontrado problemas à medida que os usuários começam a relatar casos estranhos de jargões.
Um usuário do Reddit postou uma captura de tela de uma resposta do Gemini, cheia de pedaços confusos de código e caracteres de outras línguas (via 9to5Google). Na foto fornecida pelo usuário, Gemini respondeu com uma grande quantidade de palavras repetidas que não ajudaram o usuário em sua consulta.
Outro relatório mostrou a IA respondendo à pergunta: “Se 0 fosse um algarismo romano, como seria?” Gêmeos entregou outra enorme parede de texto cheia de palavras e símbolos que não ajudaram. Um Redditor postou um exemplo de Gemini completamente errado quando questionado sobre canais de TV via satélite.
A IA prontamente entregou uma parede de “Not Cauchy, Cauchy, Cauchy”, que é sobre a Sequência de Cauchy, um conceito matemático.
Embora não sejam generalizados, esses problemas com Gêmeos são, na pior das hipóteses, irritantes. A IA não está totalmente quebrada, pois uma atualização rápida ou fazer a pergunta novamente aparentemente funcionou bem. A publicação observa que as estranhas respostas sem sentido do Gemini foram relatadas na web e em sua variante móvel do Android.
Alguém sabe o que é isso? de r/GoogleGeminiAI
A IA generativa do Google tem estado em um ritmo estranho ultimamente, já que os usuários podem se lembrar de suas visões gerais de IA fornecendo respostas erradas. Os usuários estavam recebendo dicas para colar queijo em suas pizzas e uma infinidade de outras ideias bizarras. A chefe de pesquisa da empresa, Liz Reid, entrou na conversa na semana passada, afirmando que isso é provavelmente o resultado de sua IA não entender como eliminar perguntas “absurdas” e “satíricas”.
Tais questões criam uma “lacuna de informação”, pois as questões não são típicas e, portanto, não há muita informação (factual). A IA do Google extrai muito mais conteúdo “gerado pelo usuário” que, como todos sabemos, pode ser um pouco humorístico. Reid afirmou que o Google começou a trabalhar para implementar um limitador para a IA da Pesquisa para reduzir a “inclusão de conteúdo de sátira e humor”.
.






