.

Strong The One
Para não ficar de fora da pressa de integrar IA generativa à pesquisa, na quarta-feira, o DuckDuckGo anunciou o DuckAssist, um serviço de resumo factual alimentado por IA, desenvolvido com a tecnologia da Anthropic e da OpenAI. Ele está disponível gratuitamente hoje como um amplo teste beta para usuários das extensões de navegador e aplicativos de navegação do DuckDuckGo. Sendo alimentada por um modelo de IA, a empresa admite que o DuckAssist pode inventar coisas, mas espera que isso aconteça raramente.
Veja como funciona: se um usuário do DuckDuckGo pesquisar uma pergunta que pode ser respondida pela Wikipedia, o DuckAssist pode aparecer e usar a tecnologia de linguagem natural AI para gerar um breve resumo do que encontra na Wikipedia, com links de fontes listados abaixo. O resumo aparece acima dos resultados de pesquisa regulares do DuckDuckGo em uma caixa especial.
A empresa posiciona o DuckAssist como uma nova forma de “resposta instantânea” – um recurso que evita que os usuários tenham que vasculhar os resultados da pesquisa na web para encontrar informações rápidas sobre tópicos como notícias, mapas e clima. Em vez disso, o mecanismo de pesquisa apresenta os resultados do Instant Answer acima da lista usual de sites.

DuckDuckGo
O DuckDuckGo não diz qual modelo de linguagem grande (LLM) ou modelos ele usa para gerar o DuckAssist, embora alguma forma de API OpenAI pareça provável. A Strong The One entrou em contato com os representantes da DuckDuckGo para esclarecimentos. Mas o CEO da DuckDuckGo, Gabriel Weinberg, explica como ele utiliza o sourcing em uma postagem no blog da empresa:
O DuckAssist responde a perguntas examinando um conjunto específico de fontes – por enquanto, geralmente é a Wikipedia e, ocasionalmente, sites relacionados como Britannica – usando a indexação ativa do DuckDuckGo. Como estamos usando a tecnologia de linguagem natural da OpenAI e da Anthropic para resumir o que encontramos na Wikipédia, essas respostas devem responder mais diretamente à sua pergunta real do que os resultados de pesquisa tradicionais ou outras respostas instantâneas.
Como o principal argumento de venda do DuckDuckGo é a privacidade, a empresa diz que o DuckAssist é “anônimo” e enfatiza que não compartilha o histórico de pesquisa ou navegação com ninguém. “Também mantemos seu histórico de pesquisa e navegação anônimo para nossos parceiros de conteúdo de pesquisa”, escreve Weinberg, “neste caso, OpenAI e Anthropic, usados para resumir as frases da Wikipedia que identificamos”.
Se o DuckDuckGo estiver usando a API GPT-3 ou ChatGPT da OpenAI, pode-se temer que o site possa enviar a consulta de cada usuário para a OpenAI toda vez que for invocada. Mas, lendo nas entrelinhas, parece que apenas o artigo da Wikipedia (ou trecho de um) é enviado ao OpenAI para resumo, não a pesquisa do usuário em si. Entramos em contato com o DuckDuckGo para esclarecimentos sobre esse ponto também.
O DuckDuckGo chama o DuckAssist de “o primeiro de uma série de recursos generativos assistidos por IA que esperamos lançar nos próximos meses”. Se o lançamento for bem – e ninguém o interromper com solicitações adversárias – o DuckDuckGo planeja lançar o recurso para todos os usuários de pesquisa “nas próximas semanas”.
DuckDuckGo: Risco de alucinações “muito diminuído”
Como abordamos anteriormente no Ars, os LLMs tendem a produzir resultados errôneos convincentes, que os pesquisadores de IA chamam de “alucinações” como um termo da arte no campo da IA. As alucinações podem ser difíceis de detectar, a menos que você conheça o material que está sendo referenciado, e elas ocorrem parcialmente porque os LLMs no estilo GPT da OpenAI não distinguem entre fato e ficção em seus conjuntos de dados. Além disso, os modelos podem fazer inferências falsas com base em dados que, de outra forma, seriam precisos.
Nesse ponto, o DuckDuckGo espera evitar alucinações apoiando-se fortemente na Wikipedia como fonte: “pedindo ao DuckAssist para apenas resumir as informações da Wikipedia e fontes relacionadas”, escreve Weinberg, “a probabilidade de que ele irá ‘alucinar’ – isto é, apenas inventar algo – é muito diminuída.”
Embora confiar em uma fonte de informação de qualidade possa reduzir erros de informações falsas no conjunto de dados da IA, isso pode não reduzir inferências falsas. E o DuckDuckGo coloca o ônus da verificação dos fatos no usuário, fornecendo um link de origem abaixo do resultado gerado pela IA que pode ser usado para examinar sua precisão. Mas não será perfeito, e o CEO Weinberg admite: “No entanto, o DuckAssist não gerará respostas precisas o tempo todo. Esperamos que ele cometa erros”.
À medida que mais empresas implantam a tecnologia LLM que pode facilmente desinformar, pode levar algum tempo e o uso generalizado antes que empresas e clientes decidam qual nível de alucinação é tolerável em um produto com IA projetado para informar factualmente as pessoas.
.