Ciência e Tecnologia

O Google teve seu próprio assassinato LLM em Lobisomem para testar sua inteligência de IA

.

Na GDC 2024, os engenheiros seniores de IA do Google, Jane Friedhoff (UX) e Feiyang Chen (Software), exibiram os resultados de seu experimento de IA de lobisomem, no qual todos os aldeões inocentes e lobos tortuosos e assassinos são modelos de linguagem grande (LLMs).

Friedhoff e Chen treinaram cada chatbot LLM para gerar diálogo com personalidades únicas, traçar estratégias com base em seus papéis, raciocinar o que outros jogadores (IA ou humanos) estão escondendo e então votar na pessoa mais suspeita (ou no bode expiatório do lobisomem).

Eles então soltaram os bots de IA do Google, testando se eles eram bons em detectar mentiras ou quão suscetíveis eram à iluminação a gás. Eles também testaram o desempenho dos LLMs ao remover capacidades específicas, como memória ou raciocínio dedutivo, para ver como isso afetava os resultados.

Um slide durante o painel GDC 2024 "Simulacras e subterfúgios: construindo um 'lobisomem' agente".  Ele mostra um exemplo do jogo Generative Werewolf em ação, com bots tentando enganar os moradores ou farejar lobisomens.

(Crédito da imagem: Michael Hicks/Android Central)

A equipe de engenharia do Google foi franca sobre os sucessos e as deficiências do experimento. Em situações ideais, os aldeões chegaram à conclusão certa nove em cada dez vezes; sem raciocínio e memória adequados, os resultados caíram para três em 10. Os bots eram muito cautelosos para revelar informações úteis e muito céticos em relação a quaisquer afirmações, levando a perseguições aleatórias em alvos azarados.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo