.
Recorrer a um amigo ou colega de trabalho pode facilitar a resolução de problemas complicados. Agora parece que ter chatbots de IA unidos pode torná-los mais eficazes.
Joguei esta semana com Geração automáticauma estrutura de software de código aberto para colaboração de agentes de IA Desenvolvido por pesquisadores da Microsoft e acadêmicos da Universidade Estadual da Pensilvânia, da Universidade de Washington e da Universidade Xidian na China. O software utiliza o grande modelo de linguagem GPT-4 da OpenAI para permitir que você crie vários agentes de IA com diferentes personas, funções e objetivos que podem ser solicitados a resolver problemas específicos.
Para testar a ideia de colaboração de IA, fiz com que dois agentes de IA trabalhassem juntos em um plano sobre como escrever sobre colaboração de IA.
Ao modificar o código do AutoGen, criei um “repórter” e um “editor” que discutiu a escrita sobre a colaboração de agentes de IA. Depois de falar sobre a importância de “mostrar como indústrias como saúde, transporte, varejo e outras estão usando IA multiagente”, a dupla concordou que a peça proposta deveria mergulhar nos “dilemas éticos” colocados pela tecnologia.
É muito cedo para escrever muito sobre qualquer um dos tópicos sugeridos – o conceito de colaboração de IA multiagente está principalmente na fase de pesquisa. Mas a experiência demonstrou uma estratégia que pode amplificar o poder dos chatbots de IA.
Os grandes modelos de linguagem, como os por trás do ChatGPT, muitas vezes tropeçam em problemas matemáticos porque funcionam fornecendo texto estatisticamente plausível, em vez de raciocínio lógico rigoroso. Em um papel apresentado em um workshop acadêmico em maio, os pesquisadores por trás do AutoGen mostram que a colaboração de agentes de IA pode mitigar essa fraqueza.
Eles descobriram que dois a quatro agentes trabalhando juntos poderiam resolver problemas de matemática do quinto ano de forma mais confiável do que um agente sozinho. Em seus testes, as equipes também foram capazes de resolver problemas de xadrez conversando sobre eles e analisar e refinar códigos de computador conversando entre si.
Outros demonstraram benefícios semelhantes quando vários modelos diferentes de IA – mesmo aqueles oferecidos por rivais corporativos – se unem. Num projecto apresentado no mesmo oficina em uma grande conferência de IA chamada ICLR, um grupo do MIT e do Google fez com que o ChatGPT da OpenAI e o Bard do Google trabalhassem juntos discutindo e debatendo problemas. Eles descobriram que a dupla estava maior probabilidade de convergir para uma solução correta a problemas juntos do que quando os bots trabalhavam sozinhos. Outro artigo recente de pesquisadores da UC Berkeley e da Universidade de Michigan mostrou que ter um agente de IA revisando e criticando o trabalho de outro poderia permitir que o bot supervisor atualizasse o código do outro agente, melhorando sua capacidade de usar o navegador da web de um computador.
As equipes de LLMs também podem ser solicitadas a se comportar de maneira surpreendentemente humana. Um grupo do Google, da Universidade de Zhejiang, na China, e da Universidade Nacional de Cingapura, descobriu que atribuindo traços de personalidade distintos aos agentes de IAcomo “tranquilos” ou “excessivamente confiantes”, podem ajustar seu desempenho colaborativo, seja positiva ou negativamente.
E um artigo recente no The Economist reúne vários projetos multiagentes, incluindo um encomendado pela Agência de Projetos de Pesquisa Avançada de Defesa do Pentágono. Nesse experimento, uma equipe de agentes de IA foi encarregada de procurar bombas escondidas em um labirinto de salas virtuais. Embora a equipa multi-IA tenha sido melhor a encontrar as bombas imaginárias do que um agente solitário, os investigadores também descobriram que o grupo desenvolveu espontaneamente uma hierarquia interna. Um agente acabou mandando nos outros enquanto eles cumpriam sua missão.
Graham Neubig, professor associado da Carnegie Mellon University, que organizou o workshop ICRL, está experimentando a colaboração multiagente para codificação. Ele diz que a abordagem colaborativa pode ser poderosa, mas também pode levar a novos tipos de erros, porque acrescenta mais complexidade. “É possível que os sistemas multiagentes sejam o caminho a seguir, mas não é uma conclusão precipitada”, diz Neubig.
As pessoas já estão adaptando a estrutura de código aberto AutoGen de maneiras interessantes, por exemplo, criando salas de escritores simuladas para gerar ideias de ficção e um ambiente virtual “negócios em uma caixa” com agentes que assumem diferentes funções corporativas. Talvez não demore muito até que a tarefa que meus agentes de IA sugeriram precise ser escrita.
.