.
O ChatGPT e outros grandes modelos de linguagem (LLMs) não conseguem aprender de forma independente nem adquirir novas habilidades, o que significa que não representam nenhuma ameaça existencial à humanidade, de acordo com uma nova pesquisa da Universidade de Bath e da Universidade Técnica de Darmstadt, na Alemanha.
O estudo, publicado hoje como parte dos procedimentos da 62ª Reunião Anual da Association for Computational Linguistics (ACL 2024) — a principal conferência internacional em processamento de linguagem natural — revela que os LLMs têm uma capacidade superficial de seguir instruções e se destacam na proficiência em linguagem, no entanto, eles não têm potencial para dominar novas habilidades sem instruções explícitas. Isso significa que eles permanecem inerentemente controláveis, previsíveis e seguros.
Isso significa que eles permanecem inerentemente controláveis, previsíveis e seguros.
A equipe de pesquisa concluiu que os LLMs — que estão sendo treinados em conjuntos de dados cada vez maiores — podem continuar a ser implantados sem problemas de segurança, embora a tecnologia ainda possa ser mal utilizada.
Com o crescimento, esses modelos provavelmente gerarão uma linguagem mais sofisticada e se tornarão melhores em seguir instruções explícitas e detalhadas, mas é altamente improvável que adquiram habilidades de raciocínio complexas.
“A narrativa predominante de que esse tipo de IA é uma ameaça à humanidade impede a adoção e o desenvolvimento generalizados dessas tecnologias e também desvia a atenção das questões genuínas que exigem nosso foco”, disse o Dr. Harish Tayyar Madabushi, cientista da computação da Universidade de Bath e coautor do novo estudo sobre as “habilidades emergentes” dos LLMs.
A equipe de pesquisa colaborativa, liderada pela Professora Iryna Gurevych da Universidade Técnica de Darmstadt, na Alemanha, realizou experimentos para testar a capacidade dos LLMs de completar tarefas que os modelos nunca haviam encontrado antes — as chamadas habilidades emergentes.
Como ilustração, os LLMs podem responder perguntas sobre situações sociais sem nunca terem sido explicitamente treinados ou programados para isso. Embora pesquisas anteriores tenham sugerido que isso era um produto de modelos “conhecendo” situações sociais, os pesquisadores mostraram que era, na verdade, o resultado de modelos usando uma habilidade bem conhecida dos LLMs de completar tarefas com base em alguns exemplos apresentados a eles, conhecida como “aprendizagem em contexto” (ICL).
Por meio de milhares de experimentos, a equipe demonstrou que uma combinação da capacidade dos LLMs de seguir instruções (ICL), memória e proficiência linguística pode ser responsável tanto pelas capacidades quanto pelas limitações exibidas pelos LLMs.
O Dr. Tayyar Madabushi disse: “O medo é que, à medida que os modelos ficam cada vez maiores, eles sejam capazes de resolver novos problemas que não podemos prever atualmente, o que representa a ameaça de que esses modelos maiores possam adquirir habilidades perigosas, incluindo raciocínio e planejamento.
“Isso gerou muita discussão — por exemplo, no AI Safety Summit do ano passado em Bletchley Park, sobre o qual fomos solicitados a comentar — mas nosso estudo mostra que o medo de que um modelo desapareça e faça algo completamente inesperado, inovador e potencialmente perigoso não é válido.
“As preocupações sobre a ameaça existencial representada pelos LLMs não se restringem a não especialistas e foram expressas por alguns dos principais pesquisadores de IA do mundo.”
No entanto, o Dr. Tayyar Madabushi afirma que esse medo é infundado, pois os testes dos pesquisadores demonstraram claramente a ausência de habilidades emergentes de raciocínio complexo em LLMs.
“Embora seja importante abordar o potencial existente para o uso indevido da IA, como a criação de notícias falsas e o risco elevado de fraude, seria prematuro promulgar regulamentações com base em ameaças existenciais percebidas”, disse ele.
“É importante ressaltar que o que isso significa para os usuários finais é que confiar em LLMs para interpretar e executar tarefas complexas que exigem raciocínio complexo sem instruções explícitas provavelmente será um erro. Em vez disso, os usuários provavelmente se beneficiarão ao especificar explicitamente o que eles exigem que os modelos façam e fornecer exemplos sempre que possível para todas as tarefas, exceto as mais simples.”
O professor Gurevych acrescentou: “… nossos resultados não significam que a IA não seja uma ameaça. Em vez disso, mostramos que o suposto surgimento de habilidades de pensamento complexas associadas a ameaças específicas não é apoiado por evidências e que podemos controlar muito bem o processo de aprendizagem de LLMs, afinal. Pesquisas futuras devem, portanto, focar em outros riscos apresentados pelos modelos, como seu potencial de serem usados para gerar notícias falsas.”
.