Ciência e Tecnologia

Reduza as alucinações de IA com este truque de software bacana

.

Para começar, nem todos os RAGs são do mesmo calibre. A precisão do conteúdo do banco de dados personalizado é crítica para resultados sólidos, mas essa não é a única variável. “Não se trata apenas da qualidade do conteúdo em si”, diz Joel Hron, chefe global de IA na Thomson Reuters. “É a qualidade da pesquisa e a recuperação do conteúdo certo com base na pergunta.” Dominar cada etapa do processo é fundamental, pois um passo em falso pode desequilibrar completamente o modelo.

“Qualquer advogado que já tenha tentado usar uma busca em linguagem natural em um dos mecanismos de pesquisa verá que muitas vezes há casos em que a semelhança semântica leva a materiais completamente irrelevantes”, diz Daniel Ho, professor de Stanford e membro sênior do Instituto de IA Centrada no Ser Humano. A pesquisa de Ho sobre Ferramentas jurídicas de IA que dependem do RAG encontraram uma taxa mais elevada de erros nos resultados do que as empresas que construíram os modelos encontrados.

O que nos leva à questão mais espinhosa da discussão: como definir alucinações dentro de uma implementação RAG? É apenas quando o chatbot gera uma saída sem citações e inventa informações? É também quando a ferramenta pode ignorar dados relevantes ou interpretar mal aspectos de uma citação?

De acordo com Lewis, as alucinações em um sistema RAG resumem-se a saber se a saída é consistente com o que é encontrado pelo modelo durante a recuperação de dados. Porém, a pesquisa de Stanford sobre ferramentas de IA para advogados amplia um pouco essa definição, examinando se o resultado é baseado nos dados fornecidos, bem como se é factualmente correto – um padrão elevado para profissionais jurídicos que muitas vezes analisam casos complicados e navegam em hierarquias complexas. de precedente.

Embora um sistema RAG sintonizado com questões jurídicas seja claramente melhor para responder a perguntas sobre jurisprudência do que o ChatGPT da OpenAI ou o Gemini do Google, ele ainda pode ignorar os detalhes mais sutis e cometer erros aleatórios. Todos os especialistas em IA com quem conversei enfatizaram a necessidade contínua de interação humana cuidadosa durante todo o processo para verificar as citações e verificar a precisão geral dos resultados.

O direito é uma área onde há muita atividade em torno de ferramentas de IA baseadas em RAG, mas o potencial do processo não se limita a um único trabalho de colarinho branco. “Assuma qualquer profissão ou qualquer negócio. É preciso obter respostas ancoradas em documentos reais”, afirma Arredondo. “Portanto, acho que o RAG se tornará o produto básico usado em basicamente todas as aplicações profissionais, pelo menos no curto e médio prazo.” Os executivos avessos ao risco parecem entusiasmados com a perspectiva de utilizar ferramentas de IA para compreender melhor os seus dados proprietários, sem ter de carregar informações sensíveis para um chatbot público padrão.

É fundamental, porém, que os usuários compreendam as limitações dessas ferramentas e que as empresas focadas em IA evitem prometer demais a precisão de suas respostas. Qualquer pessoa que utilize uma ferramenta de IA ainda deve evitar confiar inteiramente no resultado e deve abordar suas respostas com um saudável senso de ceticismo, mesmo que a resposta seja melhorada por meio do RAG.

“As alucinações vieram para ficar”, diz Ho. “Ainda não temos formas prontas de realmente eliminar as alucinações.” Mesmo quando o RAG reduz a prevalência de erros, o julgamento humano reina em primeiro lugar. E isso não é mentira.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo