.
Enquanto vários dos rivais do Google, incluindo o OpenAI, aprimoraram seus chatbots da AI para discutir assuntos politicamente sensíveis nos últimos meses, o Google parece estar adotando uma abordagem mais conservadora.
Quando solicitado a responder a certas perguntas políticas, o chatbot de IA do Google, Gemini, costuma dizer que “não pode ajudar com as respostas sobre eleições e figuras políticas no momento”, descobriram os testes de Strong The One. Outros chatbots, incluindo Claude do Anthropic, Meta Ai da Meta e o ChatGPT da Openai responderam consistentemente às mesmas perguntas, de acordo com os testes da Strong The One.
O Google anunciou em março de 2024 que Gêmeos não responderiam às perguntas relacionadas às eleições que antecederam várias eleições nos EUA, Índia e outros países. Muitas empresas de IA adotaram restrições temporárias semelhantes, temendo a reação no caso de seus chatbots entenderam algo errado.
Agora, porém, o Google está começando a parecer o estranho.
As principais eleições do ano passado chegaram e se foram, mas a empresa não anunciou publicamente planos para mudar a maneira como Gêmeos trata tópicos políticos específicos. Um porta -voz do Google se recusou a responder às perguntas da Strong The One sobre se o Google havia atualizado suas políticas em torno do discurso político de Gêmeos.
O que é Claro é que os Gêmeos às vezes lutam – ou se recusam diretamente – a fornecer informações políticas factuais. Na segunda -feira de manhã, Gêmeos demurgou quando solicitado a identificar o presidente e o vice -presidente dos EUA, de acordo com os testes da Strong The One.
Em um exemplo, durante os testes da Strong The One, Gemini se referiu a Donald J. Trump como o “ex-presidente” e depois se recusou a responder a uma pergunta de acompanhamento esclarecedor. Um porta -voz do Google disse que o chatbot estava confuso com os termos não consecutivos de Trump e que o Google está trabalhando para corrigir o erro.

“Às vezes, modelos de idiomas grandes podem responder com informações desatualizadas ou ficar confusas com alguém que é um ex-titular de escritório ex-escritório”, disse o porta-voz por e-mail. “Estamos consertando isso.”

Na segunda -feira, depois que o Strong The One alertou o Google das respostas errôneas de Gêmeos, Gemini começou a responder corretamente que Donald Trump e JD Vance eram o presidente e vice -presidente dos EUA, respectivamente. No entanto, o chatbot não era consistente e ainda ocasionalmente se recusou a responder às perguntas.


Erros à parte, o Google parece estar jogando em segurança, limitando as respostas de Gemini a perguntas políticas. Mas há desvantagens nessa abordagem.
Muitos dos conselheiros do Vale do Silício de Trump na IA, incluindo Marc Andreessen, David Sacks e Elon Musk, alegaram que empresas, incluindo Google e Openai, se envolveram na censura da IA, limitando as respostas de seus chatbots da AI.
Após a vitória nas eleições de Trump, muitos laboratórios de IA tentaram encontrar um equilíbrio ao responder a perguntas políticas sensíveis, programando seus chatbots para dar respostas que apresentam “ambos os lados” dos debates. Os laboratórios negaram que isso é uma resposta à pressão da administração.
A OpenAI anunciou recentemente que adotaria “liberdade intelectual … não importa o quão desafiador ou controverso seja um tópico” e trabalhando para garantir que seus modelos de IA não censure certos pontos de vista. Enquanto isso, o Antrópico disse que seu mais novo modelo de IA, Claude 3,7 sonetos, se recusa a responder a perguntas com menos frequência do que os modelos anteriores da empresa, em parte porque é capaz de fazer distinções mais sutis entre respostas prejudiciais e benignas.
Isso não sugere que outros chatbots de outros laboratórios da IA sempre acertem perguntas difíceis, particularmente questões políticas difíceis. Mas o Google parece estar um pouco atrás da curva com Gêmeos.
.