.
EUEm meu curso de primavera com 120 alunos, meus assistentes de ensino pegaram quatro exemplos de alunos usando programas de linguagem orientados por inteligência artificial, como o ChatGPT, para concluir redações curtas. Em cada caso, os alunos confessaram usar tais sistemas e concordaram em reescrever eles mesmos as tarefas.
Com todo o pânico sobre como os alunos podem usar esses sistemas para contornar o fardo de realmente aprender, muitas vezes esquecemos que, a partir de 2023, os sistemas não funcionam bem. Era fácil identificar esses ensaios fraudulentos. Eles continham erros espetaculares. Eles usaram um texto que não respondeu ao prompt que emitimos para os alunos. Ou simplesmente soaram diferentes do que um humano escreveria.
Nossa política, visto que essa foi a primeira onda de trapaça que encontramos (e com total consideração de que todos os alunos da Universidade da Virgínia se comprometem a seguir um “código de honra” ao se matricular), era iniciar uma conversa com cada aluno. Decidimos fazer esse momento funcionar em prol do aprendizado.
Perguntamos a eles por que se sentiram tentados a usar esses serviços em vez de seus próprios esforços, o que, para um ensaio de duas páginas, teria sido mínimo. Em cada caso, eles disseram que estavam sobrecarregados com as demandas de outros cursos e da própria vida.
Pedimos a eles que considerassem se os resultados refletiam bem em seu objetivo de se tornarem cidadãos educados. Claro que não.
Também perguntamos a eles por que eles achavam que seríamos tão desatentos a ponto de deixar passar tais submissões. Eles não tinham resposta para isso. Mas espero que pelo menos tenhamos despertado algum pensamento e auto-exame. Às vezes, isso é tudo o que podemos esperar como professores.
O curso que ministro chama-se Democracia em Perigo. Ele foi projetado para levar os alunos a considerar as raízes históricas das ameaças à democracia em todo o mundo. Portanto, não era o fórum adequado para incitar os alunos a considerar como usamos as novas tecnologias sem pensar e o que acontece por trás da tela com um sistema de aprendizado de máquina. Mas essas são as perguntas mais interessantes a serem feitas sobre inteligência artificial e modelos de linguagem ampla. Mal posso esperar para receber essas perguntas antes do meu próximo grupo de alunos.
É por isso que estou entusiasmado com a popularidade instantânea dos modelos de linguagem grande em nossas vidas. Enquanto permanecerem péssimos naquilo que pretendem fazer, são perfeitos para o estudo. Eles revelam muitos dos problemas que muitas vezes deixamos espreitar sob nossa atenção frenética.
Por décadas, tenho procurado maneiras de fazer com que os alunos mergulhem profundamente na natureza da linguagem e da comunicação. Que modelos de linguagem as mentes e comunidades humanas usam? Que modelos de linguagem os computadores usam? Como eles são diferentes? Por que iríamos querer que os computadores imitassem os humanos? Quais são os custos e benefícios de tal imitação? A inteligência artificial é realmente inteligente? O que significa que esses sistemas parecem estar produzindo conhecimento, quando na verdade estão apenas fingindo?
Agora, graças a alguns saltos recentes e significativos no aprendizado de máquina baseado em linguagem, os alunos investem nessas questões. Minha comunidade de estudiosos em mídia e comunicação, interação humano-computador, estudos de ciência e tecnologia e ciência de dados acompanha o desenvolvimento desses e de outros sistemas de aprendizado de máquina incorporados em várias áreas da vida há décadas. Finalmente, o público parece se importar.
Como meu colega da Escola de Ciência de Dados da Universidade da Virgínia, Rafael Alvarado, argumentou, esses sistemas funcionam gerando prosa significativa com base no vasto índice de linguagem que produzimos para a rede mundial de computadores e que empresas como o Google digitalizaram de livros. Eles falsificam o que parece ser conhecimento, produzindo cadeias de texto que estatisticamente fazem sentido.
Eles não correspondem à realidade de forma direta. Quando acertam alguma coisa (e parece que acertam com frequência), é por coincidência. Esses sistemas consumiram tanto texto humano que podem prever qual frase fica bem depois de outra e qual combinação de frases e declarações parece apropriada para responder a uma solicitação ou pergunta.
“É realmente o trabalho da biblioteca que estamos testemunhando aqui”, disse Alvarado. É uma biblioteca sem bibliotecários, composta por conteúdos desencarnados e descontextualizados, separados da obra significativa dos autores, submetidos a leitores crédulos. Esses sistemas são, nas palavras de Alvarado, “bons em forma; ruim de conteúdo”.

A perspectiva de enganar um professor é sempre tentadora. Tenho idade suficiente para me lembrar de quando os próprios mecanismos de pesquisa ofereciam aos alunos vastos tesouros de conteúdo em potencial para fazerem passar por eles. Temos lidado com métodos e tecnologias de trapaça desde que pedimos aos alunos que provem seus conhecimentos para nós. Cada vez que os alunos implantam um novo método, respondemos e corrigimos isso. E, a cada vez, melhoramos o design de tarefas que podem ajudar os alunos a aprender melhor. Afinal, escrever é aprender. Assim como falar, argumentar e ensinar. Assim como projetar jogos, escrever códigos, criar bancos de dados e fazer arte.
Assim, daqui para frente, exigirei algumas formas mais antigas de criação de conhecimento para desafiar meus alunos e ajudá-los a aprender. Vou exigir redação em sala de aula. Isso não apenas os afastará das telas, dos mecanismos de pesquisa e dos modelos de linguagem ampla. Isso exigirá que eles pensem com fluidez no momento. Escrever em tempo real exige clareza e concisão. Também atribuirei mais apresentações em grupo e insistirei para que outros alunos façam perguntas aos apresentadores, gerando uma compreensão mais profunda e em tempo real de um assunto.
Crucialmente, também pedirei aos alunos que usem sistemas de modelo de linguagem ampla em sala de aula para gerar texto e avaliar seu valor e validade. Posso dizer à IA para “escrever um ensaio sobre IA na sala de aula escrito no estilo de Siva Vaidhyanathan”. Em seguida, como classe, procuraríamos as fontes das reivindicações, textos e citações e avaliaríamos os resultados gerais da geração do texto.
Uma das razões pelas quais tantas pessoas de repente se preocupam com a inteligência artificial é que adoramos entrar em pânico com coisas que não entendemos. A incompreensão nos permite projetar perigos espetaculares no futuro. Muitos dos próprios responsáveis por desenvolver esses modelos (que se enriqueceram) nos alertam sobre os sistemas de inteligência artificial que conseguem algum tipo de senciência e assumem o controle de áreas importantes da vida. Outros alertam para o deslocamento maciço de empregos desses sistemas. Todas essas previsões pressupõem que a implantação comercial da inteligência artificial realmente funcionaria conforme o planejado. Felizmente, a maioria das coisas não.
Isso não significa que devemos ignorar os perigos atuais e sérios de sistemas mal projetados e implantados. Durante anos, a modelagem preditiva distorceu o trabalho policial e os procedimentos de condenação na justiça criminal americana, vigiando e punindo os negros de forma desproporcional. Os sistemas de aprendizado de máquina estão funcionando em seguros e assistência médica, principalmente sem transparência, responsabilidade, supervisão ou regulamentação.
Estamos cometendo dois erros graves ao mesmo tempo. Estamos nos escondendo e iludindo a inteligência artificial porque ela parece muito misteriosa e complicada, tornando invisíveis e não discutidos os usos atuais e nocivos dela. E estamos preocupados com os piores cenários futuros que se assemelham ao filme Matrix mais do que qualquer mundo que realmente criaríamos para nós mesmos. Ambos os hábitos permitem que as empresas que implantam irresponsavelmente esses sistemas nos explorem. Podemos fazer melhor. Farei minha parte ensinando melhor no futuro, mas não ignorando esses sistemas e sua presença em nossas vidas.
.