technology

A IA está mudando a compreensão dos cientistas sobre o aprendizado de idiomas

.

Viver em um mundo rico em linguagem é suficiente para ensinar uma linguagem gramatical a uma criança?
Prolongar / Viver em um mundo rico em linguagem é suficiente para ensinar uma linguagem gramatical a uma criança?

Ao contrário do diálogo cuidadosamente roteirizado encontrado na maioria dos livros e filmes, a linguagem da interação cotidiana tende a ser confusa e incompleta, cheia de falsos começos, interrupções e pessoas falando umas com as outras. De conversas casuais entre amigos, brigas entre irmãos e discussões formais em uma sala de reuniões, uma conversa autêntica é caótica. Parece milagroso que qualquer um possa aprender a linguagem, dada a natureza aleatória da experiência linguística.

Por essa razão, muitos cientistas da linguagem – incluindo Noam Chomsky, um dos fundadores da linguística moderna – acreditam que os aprendizes de línguas precisam de uma espécie de cola para controlar a natureza indisciplinada da linguagem cotidiana. E essa cola é a gramática: um sistema de regras para gerar frases gramaticais.

As crianças devem ter um modelo gramatical conectado ao cérebro para ajudá-las a superar as limitações de sua experiência linguística – ou assim é o pensamento.

Este modelo, por exemplo, pode conter uma “super-regra” que determina como novas peças são adicionadas a frases existentes. As crianças então só precisam aprender se sua língua nativa é uma, como o inglês, onde o verbo vem antes do objeto (como em “eu como sushi”), ou uma como o japonês, onde o verbo vem depois do objeto (em japonês, o mesma frase é estruturada como “eu sushi como”).

Mas novos insights sobre o aprendizado de idiomas vêm de uma fonte improvável: a inteligência artificial. Uma nova geração de grandes modelos de linguagem de IA pode escrever artigos de jornal, poesia e código de computador e responder a perguntas com sinceridade após ser exposto a grandes quantidades de entrada de linguagem. E ainda mais surpreendente, todos eles fazem isso sem a ajuda da gramática.

Linguagem gramatical sem gramática

Mesmo que sua escolha de palavras seja às vezes estranha, sem sentidoou contém preconceitos racistas, sexistas e outros nocivos, uma coisa é muito clara: a maioria esmagadora da saída desses modelos de linguagem de IA está gramaticalmente correta. E, no entanto, não há modelos ou regras gramaticais embutidos neles – eles dependem apenas da experiência linguística, por mais confusa que seja.

O GPT-3, sem dúvida o mais conhecido desses modelos, é uma gigantesca rede neural de aprendizado profundo com 175 bilhões de parâmetros. Ele foi treinado para prever a próxima palavra em uma frase com base em centenas de bilhões de palavras da Internet, livros e Wikipedia. Quando fazia uma previsão errada, seus parâmetros eram ajustados usando um algoritmo de aprendizado automático.

Notavelmente, o GPT-3 pode gerar texto crível reagindo a prompts como “Um resumo dos últimos Veloz e furioso filme é…” ou “Escreva um poema no estilo de Emily Dickinson”. Além disso, o GPT-3 pode responder a analogias de nível SAT, questões de compreensão de leitura e até mesmo resolver problemas aritméticos simples – tudo aprendendo a prever a próxima palavra.

Um modelo de IA e um cérebro humano podem gerar a mesma linguagem, mas eles estão fazendo da mesma maneira?
Prolongar / Um modelo de IA e um cérebro humano podem gerar a mesma linguagem, mas eles estão fazendo da mesma maneira?

Just_Super/E+ via Getty

Comparando modelos de IA e cérebros humanos

A semelhança com a linguagem humana não para por aqui, no entanto. Uma pesquisa publicada na Nature Neuroscience demonstrou que essas redes artificiais de aprendizado profundo parecem usar os mesmos princípios computacionais que o cérebro humano. O grupo de pesquisa, liderado pelo neurocientista Uri Hasson, primeiro comparou quão bem o GPT-2 – um “irmãozinho” do GPT-3 – e os humanos poderiam prever a próxima palavra em uma história retirada do podcast “This American Life”: People and a IA previu exatamente a mesma palavra em quase 50% das vezes.

Os pesquisadores registraram a atividade cerebral dos voluntários enquanto ouviam a história. A melhor explicação para os padrões de ativação que eles observaram foi que os cérebros das pessoas – como o GPT-2 – não estavam apenas usando uma ou duas palavras anteriores ao fazer previsões, mas contavam com o contexto acumulado de até 100 palavras anteriores. Ao todo, os autores concluem: “Nossa descoberta de sinais neurais preditivos espontâneos à medida que os participantes ouvem a fala natural sugere que a previsão ativa pode estar subjacente ao aprendizado de linguagem ao longo da vida dos humanos”.

Uma possível preocupação é que esses novos modelos de linguagem de IA recebam muitas informações: o GPT-3 foi treinado em experiência linguística equivalente a 20.000 anos humanos. Mas um estudo preliminar que ainda não foi revisado por pares descobriu que o GPT-2 ainda pode modelar previsões humanas da próxima palavra e ativações cerebrais, mesmo quando treinado em apenas 100 milhões de palavras. Isso está bem dentro da quantidade de entrada linguística que uma criança média pode ouvir durante os primeiros 10 anos de vida.

Não estamos sugerindo que GPT-3 ou GPT-2 aprendam a linguagem exatamente como as crianças. De fato, esses modelos de IA parecem não compreender muito, se é que algo, do que estão dizendo, enquanto a compreensão é fundamental para o uso da linguagem humana. Ainda assim, o que esses modelos provam é que um aprendiz – ainda que de silício – pode aprender uma linguagem suficientemente bem com a mera exposição para produzir frases gramaticais perfeitamente boas e fazê-lo de uma maneira que se assemelha ao processamento do cérebro humano.

Mais para frente e para trás produz mais aprendizado de idiomas.
Prolongar / Mais para frente e para trás produz mais aprendizado de idiomas.

Repensando o aprendizado de idiomas

Durante anos, muitos linguistas acreditaram que aprender uma língua é impossível sem um modelo de gramática embutido. Os novos modelos de IA provam o contrário. Eles demonstram que a capacidade de produzir linguagem gramatical pode ser aprendida apenas com a experiência linguística. Da mesma forma, sugerimos que as crianças não precisam de uma gramática inata para aprender a linguagem.

“As crianças devem ser vistas, não ouvidas”, diz o velho ditado, mas os mais recentes modelos de linguagem de IA sugerem que nada poderia estar mais longe da verdade. Em vez disso, as crianças precisam estar envolvidas no vai-e-vem da conversa o máximo possível para ajudá-las a desenvolver suas habilidades linguísticas. A experiência linguística – não a gramática – é a chave para se tornar um usuário competente da língua.

Morten H. Christiansen é professor de psicologia na Universidade de Cornell, e Pablo Contreras Kallens é Ph.D. estudante de psicologia na Universidade de Cornell.

Este artigo é republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo