.
Em artigo publicado ontem na revista Ciênciaos principais pesquisadores da Universidade de Waterloo, da Universidade de Toronto, da Universidade de Yale e da Universidade da Pensilvânia analisam como a IA (modelos de linguagem grande ou LLMs em particular) pode mudar a natureza de seu trabalho.
“O que queríamos explorar neste artigo é como as práticas de pesquisa em ciências sociais podem ser adaptadas, até mesmo reinventadas, para aproveitar o poder da IA”, disse Igor Grossmann, professor de psicologia em Waterloo.
Grossmann e seus colegas observam que grandes modelos de linguagem treinados em grandes quantidades de dados de texto são cada vez mais capazes de simular respostas e comportamentos semelhantes aos humanos. Isso oferece novas oportunidades para testar teorias e hipóteses sobre o comportamento humano em grande escala e velocidade.
Tradicionalmente, as ciências sociais contam com uma variedade de métodos, incluindo questionários, testes comportamentais, estudos observacionais e experimentos. Um objetivo comum na pesquisa em ciências sociais é obter uma representação generalizada das características de indivíduos, grupos, culturas e suas dinâmicas. Com o advento de sistemas avançados de IA, o panorama da coleta de dados nas ciências sociais pode mudar.
“Os modelos de IA podem representar uma vasta gama de experiências e perspectivas humanas, possivelmente dando a eles um maior grau de liberdade para gerar diversas respostas do que os métodos convencionais de participantes humanos, o que pode ajudar a reduzir as preocupações de generalização na pesquisa”, disse Grossmann.
“Os LLMs podem suplantar os participantes humanos na coleta de dados”, disse o professor de psicologia da UPenn, Philip Tetlock. “Na verdade, os LLMs já demonstraram sua capacidade de gerar respostas de pesquisa realistas sobre o comportamento do consumidor. Grandes modelos de linguagem revolucionarão a previsão baseada em humanos nos próximos 3 anos. Não fará sentido para humanos sem a ajuda de IAs arriscar julgamentos probabilísticos debates políticos sérios. Eu coloco 90% de chance nisso. Claro, como os humanos reagem a tudo isso é outra questão.”
Embora as opiniões sobre a viabilidade dessa aplicação de sistemas avançados de IA variem, estudos usando participantes simulados podem ser usados para gerar novas hipóteses que podem ser confirmadas em populações humanas.
Mas os pesquisadores alertam para algumas das possíveis armadilhas dessa abordagem – incluindo o fato de que os LLMs são frequentemente treinados para excluir preconceitos socioculturais que existem para humanos da vida real. Isso significa que os sociólogos que usam IA dessa maneira não podem estudar esses vieses.
A professora Dawn Parker, coautora do artigo da Universidade de Waterloo, observa que os pesquisadores precisarão estabelecer diretrizes para a governança dos LLMs em pesquisa.
“As preocupações pragmáticas com a qualidade dos dados, justiça e igualdade de acesso aos poderosos sistemas de IA serão substanciais”, disse Parker. “Portanto, devemos garantir que os LLMs de ciências sociais, como todos os modelos científicos, sejam de código aberto, o que significa que seus algoritmos e, idealmente, os dados estão disponíveis para todos examinarem, testarem e modificarem. Somente mantendo a transparência e a replicabilidade podemos garantir que A pesquisa em ciências sociais assistida por IA realmente contribui para nossa compreensão da experiência humana.”
.