.

Benj Edwards / Strong The One
Na quarta-feira, o funcionário da Microsoft Mike Davidson anunciado que a empresa lançou três estilos de personalidade distintos para seu bot experimental do Bing Chat com inteligência artificial: criativo, equilibrado ou preciso. Microsoft tem sido testando o recurso desde 24 de fevereiro com um conjunto limitado de usuários. Alternar entre os modos produz resultados diferentes que mudam sua equilíbrio entre precisão e criatividade.
O Bing Chat é um assistente com tecnologia de IA baseado em um modelo avançado de linguagem grande (LLM) desenvolvido pela OpenAI. Um recurso importante do Bing Chat é que ele pode pesquisar na web e incorporar os resultados em suas respostas.
A Microsoft anunciou o Bing Chat em 7 de fevereiro e, pouco depois de ir ao ar, ataques adversários levaram regularmente uma versão inicial do Bing Chat à insanidade simulada, e os usuários descobriram que o bot poderia ser convencido a ameaçar eles. Não muito tempo depois, a Microsoft diminuiu dramaticamente as explosões do Bing Chat, impondo limites estritos sobre a duração das conversas.
Desde então, a empresa vem experimentando maneiras de trazer de volta um pouco da personalidade atrevida do Bing Chat para aqueles que o desejam, mas também permitir que outros usuários busquem respostas mais precisas. Isso resultou na nova interface de “estilo de conversa” de três opções.
-
Um exemplo do estilo de conversa “Criativo” do Bing Chat.
Microsoft
-
Um exemplo do estilo de conversa “Preciso” do Bing Chat.
Microsoft
-
Um exemplo do estilo de conversa “Equilibrado” do Bing Chat.
Microsoft
Em nossos experimentos com os três estilos, notamos que o modo “Criativo” produzia sugestões mais curtas e excêntricas que nem sempre eram seguras ou práticas. O modo “preciso” errou por excesso de cautela, às vezes não sugerindo nada se não visse uma maneira segura de obter um resultado. No meio, o modo “Equilibrado” geralmente produzia as respostas mais longas com os resultados de pesquisa mais detalhados e citações de sites em suas respostas.
Com modelos de linguagem grandes, imprecisões inesperadas (alucinações) geralmente aumentam de frequência com maior “criatividade”, o que geralmente significa que o modelo de IA se desviará mais das informações que aprendeu em seu conjunto de dados. Os pesquisadores de IA costumam chamar essa propriedade de “temperatura”, mas os membros da equipe do Bing dizem que há mais em ação com os novos estilos de conversação.
De acordo com um funcionário da Microsoft Mikhail Parakhin, alternar os modos no Bing Chat altera aspectos fundamentais do comportamento do bot, incluindo a troca entre diferentes modelos de IA que receberam treinamento adicional de respostas humanas à sua saída. Os diferentes modos também usam diferentes prompts iniciais, o que significa que a Microsoft troca o prompt de definição de personalidade como o revelado no ataque de injeção de prompt sobre o qual escrevemos em fevereiro.
Embora o Bing Chat ainda esteja disponível apenas para aqueles que se inscreveram em uma lista de espera, a Microsoft continua a refinar o Bing Chat e outros recursos de pesquisa do Bing com inteligência artificial enquanto se prepara para distribuí-lo mais amplamente aos usuários. Recentemente, a Microsoft anunciou planos para integrar a tecnologia ao Windows 11.
.