.
Os modelos de linguagem grandes (LLMs) se desenvolveram rapidamente nos últimos anos e estão se tornando parte integrante de nossas vidas cotidianas por meio de aplicativos como o ChatGPT. Um artigo publicado recentemente em Natureza Comportamento Humano explica as oportunidades e riscos que surgem do uso de LLMs para nossa capacidade de deliberar coletivamente, tomar decisões e resolver problemas. Liderada por pesquisadores da Copenhagen Business School e do Instituto Max Planck para o Desenvolvimento Humano em Berlim, a equipe interdisciplinar de 28 cientistas fornece recomendações para pesquisadores e formuladores de políticas para garantir que os LLMs sejam desenvolvidos para complementar, em vez de prejudicar, a inteligência coletiva humana.
O que você faz se não conhece um termo como “LLM”? Você provavelmente pesquisa rapidamente no Google ou pergunta à sua equipe. Usamos o conhecimento de grupos, conhecido como inteligência coletiva, como algo natural na vida cotidiana. Ao combinar habilidades e conhecimentos individuais, nossa inteligência coletiva pode atingir resultados que excedem as capacidades de qualquer indivíduo sozinho, até mesmo especialistas. Essa inteligência coletiva impulsiona o sucesso de todos os tipos de grupos, desde pequenas equipes no local de trabalho até grandes comunidades online como a Wikipedia e até mesmo sociedades em geral.
LLMs são sistemas de inteligência artificial (IA) que analisam e geram texto usando grandes conjuntos de dados e técnicas de aprendizado profundo. O novo artigo explica como os LLMs podem aprimorar a inteligência coletiva e discute seu impacto potencial em equipes e na sociedade. “À medida que grandes modelos de linguagem moldam cada vez mais o cenário de informações e tomada de decisões, é crucial encontrar um equilíbrio entre aproveitar seu potencial e proteger contra riscos. Nosso artigo detalha maneiras pelas quais a inteligência coletiva humana pode ser aprimorada por LLMs e os vários danos que também são possíveis”, diz Ralph Hertwig, coautor do artigo e diretor do Instituto Max Planck para o Desenvolvimento Humano, em Berlim.
Entre os benefícios potenciais identificados pelos pesquisadores está que os LLMs podem aumentar significativamente a acessibilidade em processos coletivos. Eles quebram barreiras por meio de serviços de tradução e assistência à escrita, por exemplo, permitindo que pessoas de diferentes origens participem igualmente das discussões. Além disso, os LLMs podem acelerar a geração de ideias ou dar suporte a processos de formação de opinião, por exemplo, trazendo informações úteis para as discussões, resumindo diferentes opiniões e encontrando consenso.
No entanto, o uso de LLMs também traz riscos significativos. Por exemplo, eles podem minar a motivação das pessoas para contribuir com o conhecimento coletivo comum, como a Wikipedia e o Stack Overflow. Se os usuários confiarem cada vez mais em modelos proprietários, a abertura e a diversidade do cenário do conhecimento podem estar em risco. Outro problema é o risco de falso consenso e ignorância pluralista, onde há uma crença equivocada de que a maioria aceita uma norma. “Como os LLMs aprendem com informações disponíveis online, há um risco de que os pontos de vista minoritários não sejam representados nas respostas geradas pelos LLMs. Isso pode criar uma falsa sensação de concordância e marginalizar algumas perspectivas”, aponta Jason Burton, autor principal do estudo e professor assistente na Copenhagen Business School e cientista pesquisador associado no MPIB.
“O valor deste artigo é que ele demonstra por que precisamos pensar proativamente sobre como os LLMs estão mudando o ambiente de informações on-line e, por sua vez, nossa inteligência coletiva — para melhor e para pior”, resume o coautor Joshua Becker, professor assistente na University College London. Os autores pedem maior transparência na criação de LLMs, incluindo a divulgação de fontes de dados de treinamento, e sugerem que os desenvolvedores de LLMs devem estar sujeitos a auditorias e monitoramento externos. Isso permitiria uma melhor compreensão de como os LLMs estão realmente sendo desenvolvidos e mitigaria desenvolvimentos adversos.
Além disso, o artigo oferece caixas de informações compactas sobre tópicos relacionados a LLMs, incluindo o papel da inteligência coletiva no treinamento de LLMs. Aqui, os autores refletem sobre o papel dos humanos no desenvolvimento de LLMs, incluindo como abordar objetivos como representação diversa. Duas caixas de informações com foco em pesquisa descrevem como os LLMs podem ser usados para simular a inteligência coletiva humana e identificam questões de pesquisa em aberto, como como evitar a homogeneização do conhecimento e como o crédito e a responsabilidade devem ser repartidos quando resultados coletivos são cocriados com LLMs.
Pontos-chave:
- Os LLMs estão mudando a maneira como as pessoas pesquisam, usam e comunicam informações, o que pode afetar a inteligência coletiva das equipes e da sociedade em geral.
- Os LLMs oferecem novas oportunidades para inteligência coletiva, como suporte para processos deliberativos e de formação de opinião, mas também apresentam riscos, como colocar em risco a diversidade do cenário de informações.
- Para que os LLMs apoiem, e não enfraqueçam, a inteligência coletiva, os detalhes técnicos dos modelos devem ser divulgados e mecanismos de monitoramento devem ser implementados.
Institutos participantes
- Departamento de Digitalização, Copenhagen Business School, Frederiksberg, DK
- Centro de Racionalidade Adaptativa, Instituto Max Planck para o Desenvolvimento Humano, Berlim, DE
- Centro para Humanos e Máquinas, Instituto Max Planck para o Desenvolvimento Humano, Berlim, DE
- Universidade Humboldt de Berlim, Departamento de Psicologia, Berlim, DE
- Centro de Ciências Cognitivas e de Decisão, Universidade de Basel, Basel, CH
- Google DeepMind, Londres, Reino Unido
- UCL School of Management, Londres, Reino Unido
- Centro de Design de Inteligência Coletiva, Nesta, Londres, Reino Unido
- Centro Internacional de Tecnologia da Informação Bonn-Aachen, Universidade de Bonn, Bonn, DE
- Instituto Lamarr para Aprendizado de Máquina e Inteligência Artificial, Bonn, DE
- Projeto de Inteligência Coletiva, São Francisco, CA, EUA
- Centro de Política de Tecnologia da Informação, Universidade de Princeton, Princeton, NJ, EUA
- Departamento de Ciência da Computação, Universidade de Princeton, Princeton, NJ, EUA
- Faculdade de Sociologia, University College Dublin, Dublin, IE
- Instituto Geary para Políticas Públicas, University College Dublin, Dublin, IE
- Sloan School of Management, Instituto de Tecnologia de Massachusetts, Cambridge, MA, EUA
- Departamento de Ciências Psicológicas, Birkbeck, Universidade de Londres, Londres, Reino Unido
- Cluster de Excelência em Ciência da Inteligência, Universidade Técnica de Berlim, Berlim, DE
- Escola de Informação e Comunicação, Insight SFI Research Centre for Data Analytics, University College Dublin, Dublin, IE
- Oxford Internet Institute, Universidade de Oxford, Oxford, Reino Unido
- Laboratório de Democracia Deliberativa, Universidade de Stanford, Stanford, CA, EUA
- Tepper School of Business, Universidade Carnegie Mellon, Pittsburgh, PA, EUA
.