Ciência e Tecnologia

OpenAI dá uma memória ao ChatGPT

.

OpenAI diz que a memória do ChatGPT pode ser apagada a qualquer momento, seja nas configurações ou simplesmente instruindo o bot para apagá-la, e que, uma vez limpa a configuração da memória, essa informação não será usada para treinar seu modelo de IA. (Não está claro exatamente quanto desses dados pessoais são usados enquanto alguém está conversando com o chatbot.) A memória também é um recurso opcional desde o início.

E a empresa afirma que não armazenará certas informações confidenciais na memória. Se você informar ao ChatGPT sua senha ou número de Seguro Social (não faça isso), felizmente a memória do aplicativo será esquecida. Jang também diz que a OpenAI ainda está solicitando feedback sobre se outras informações de identificação pessoal, como a etnia de um usuário, são muito sensíveis para serem capturadas automaticamente pela empresa.

“Achamos que há muitos casos úteis para esse exemplo, mas por enquanto treinamos o modelo para evitar a lembrança proativa dessas informações”, diz Jang.

É fácil ver como a função de memória do ChatGPT pode dar errado, casos em que um usuário pode ter esquecido que uma vez perguntou ao chatbot sobre uma torção ou uma clínica de aborto ou uma forma não violenta de lidar com uma sogra, apenas para ser lembre-se disso – ou faça com que outras pessoas vejam – em um bate-papo futuro. Como a memória do ChatGPT lida com os dados de saúde também é uma questão em aberto. “Evitamos que o ChatGPT se lembre de certos detalhes de saúde, mas este ainda é um trabalho em andamento”, disse o porta-voz da OpenAI, Niko Felix. Dessa forma, o ChatGPT é a mesma música, apenas uma nova era, sobre a permanência da internet: Veja esse novo recurso do Memory, até que seja um bug.

A OpenAI também não é a primeira entidade a brincar com a memória na IA generativa. O Google enfatizou a tecnologia “multi-turn” no Gemini 1.0, seu próprio LLM. Isso significa que você pode interagir com o Gemini Pro usando um prompt de um único turno – um vaivém entre o usuário e o chatbot – ou ter uma conversa contínua e com vários turnos em que o bot “lembra” o contexto das mensagens anteriores.

Uma empresa de estrutura de IA chamada LangChain está desenvolvendo um módulo de memória que ajuda grandes modelos de linguagem a relembrar interações anteriores entre um usuário final e o modelo. Dar aos LLMs uma memória de longo prazo “pode ser muito poderoso na criação de experiências únicas de LLM – um chatbot pode começar a adaptar suas respostas a você como indivíduo, com base no que sabe sobre você”, diz Harrison Chase, cofundador e CEO da LangChain . “A falta de memória de longo prazo também pode criar uma experiência desagradável. Ninguém quer ter que dizer repetidamente a um chatbot de recomendação de restaurante que é vegetariano.”

Esta tecnologia é por vezes referida como “retenção de contexto” ou “contexto persistente” em vez de “memória”, mas o objectivo final é o mesmo: que a interacção humano-computador seja tão fluida, tão natural, que o utilizador possa facilmente esquecer o que o chatbot pode lembrar. Este também é um benefício potencial para as empresas que implantam esses chatbots, que desejam manter um relacionamento contínuo com o cliente do outro lado.

“Você pode pensar neles como apenas uma série de tokens que são anexados às suas conversas”, diz Liam Fedus, cientista pesquisador da OpenAI. “O bot tem alguma inteligência e nos bastidores ele olha para as memórias e diz: ‘Parece que estão relacionadas; deixe-me fundi-los. E isso vai para o seu orçamento simbólico.”

Fedus e Jang dizem que a memória do ChatGPT não chega nem perto da capacidade do cérebro humano. E ainda assim, quase ao mesmo tempo, Fedus explica que com a memória do ChatGPT, você está limitado a “alguns milhares de tokens”. Se apenas.

Será este o assistente virtual hipervigilante prometido aos consumidores de tecnologia na última década, ou apenas mais um esquema de captura de dados que usa seus gostos, preferências e dados pessoais para melhor servir uma empresa de tecnologia do que seus usuários? Possivelmente ambos, embora a OpenAI possa não colocar dessa forma. “Acho que os assistentes do passado simplesmente não tinham inteligência”, disse Fedus, “e agora estamos chegando lá”.

Will Knight contribuiu para esta história.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo