.
Agora, em resposta às preocupações, Liz Reid, vice-presidente de pesquisa do Google, reconheceu que as visões gerais de IA do mecanismo de pesquisa às vezes retornavam “estranho, impreciso ou inútil” resultados.
Antes dessas capturas de tela se tornarem virais, praticamente ninguém fazia essa pergunta ao Google. Também não há muito conteúdo na web que contemple seriamente essa questão. Isto é o que muitas vezes é chamado de “vazio de dados” ou “lacuna de informação”, onde há uma quantidade limitada de conteúdo de alta qualidade sobre um tópico. Porém, neste caso, há conteúdo satírico sobre este tema… que também foi republicado no site de um fornecedor de software geológico. Então, quando alguém colocou essa pergunta na Pesquisa, apareceu uma visão geral da IA com um link fiel para um dos únicos sites que abordavam a questão.
Ela também acrescentou:
Quando as visões gerais de IA erram, geralmente é por outros motivos: interpretação incorreta de consultas, interpretação incorreta de uma nuance de linguagem na web ou falta de muita informação disponível. (Esses são desafios que também ocorrem com outros recursos de pesquisa.)
Além disso, o vice-presidente do Google confirmou o caso em que a AI Overview sugeriu o uso de cola para fazer queijo grudar na pizza, citando conteúdo de um fórum. Embora os fóruns possam oferecer informações reais em primeira mão, eles também podem fornecer dicas não tão úteis, como você provavelmente já percebeu.
Reid também mencionou que o Google testou extensivamente o recurso antes do lançamento, mas “não há nada como ter milhões de pessoas usando o recurso com muitas pesquisas novas.”
- O Google melhorou sua capacidade de detectar consultas que não fazem sentido e não deveriam acionar uma visão geral de IA. Além disso, a empresa ajustou sua IA para reconhecer melhor o conteúdo de humor e sátira.
- A empresa atualizou seus sistemas para reduzir a dependência de conteúdo gerado pelo usuário em respostas que possam fornecer conselhos enganosos.
- O Google implementou restrições para limitar o acionamento de consultas em que as visões gerais de IA não se mostravam tão úteis.
- Para tópicos de notícias de última hora, o Google evita exibir visões gerais de IA para priorizar atualização e precisão. Além disso, a gigante da tecnologia introduziu refinamentos para melhorar a garantia de qualidade e a precisão das consultas relacionadas à saúde.
.