.
Pesquisadores explicaram como grandes modelos de linguagem como o GPT-3 são capazes de aprender novas tarefas sem atualizar seus parâmetros, apesar de não terem sido treinados para realizar essas tarefas. Eles descobriram que esses grandes modelos de linguagem escrevem modelos lineares menores dentro de suas camadas ocultas, que os grandes modelos podem treinar para concluir uma nova tarefa usando algoritmos de aprendizado simples.
.