News

Coluna: Pedi ao ChatGPT para me escrever uma sinfonia e muito mais

.

Quero dizer, o que eu esperava de um chatbot? Uma fórmula para a paz mundial? Pistas sobre como consertar um coração partido? Uma piada de mau gosto?

Claro, tudo isso, por que não?

Eu não esperava, no entanto, que me ignorasse, me dissesse que estava muito ocupado para mim. E que entraria em contato depois por e-mail, quando estivesse livre.

Mas é assim que acontece com o ChatGPT, o programa incrivelmente realista que foi lançado em novembro e foi imediatamente inundado por usuários curiosos – mais de um milhão, de acordo com seu criador de San Francisco, OpenAI. Ele foi chamado de “simplesmente, o melhor chatbot de inteligência artificial já lançado para o público em geral”. Não é de admirar que esteja travando devido ao uso excessivo.

Ilustração de retrato em estilo pontilhado de Robin Abcarian

colunista de opinião

Robin Abcarian

Com a maioria das tecnologias, dificilmente sou um dos primeiros a adotar. Não tenho absolutamente nenhum desejo de usar a primeira iteração de nada. Mas tantas histórias de IA giraram em torno da esfera da mídia, incluindo como a IA substituirá os jornalistas, que parecia irresponsável não mergulhar nisso.

Afinal, o pânico parece ser uma das respostas humanas mais previsíveis a qualquer avanço tecnológico importante.

O Atlantic previu que, nos próximos cinco anos, a IA reduzirá as oportunidades de emprego para trabalhadores com nível universitário. (Na verdade, o ChatGPT previu esse resultado depois que o Atlantic o incitou a resolver o problema.)

O New York Times publicou recentemente uma história sobre como chatbots como o ChatGPT estão escrevendo artigos inteiros para alunos de graduação, forçando as universidades a mudar a forma como atribuem trabalho. Até agora, informou o The Times, mais de 6.000 professores de instituições como Harvard, Yale e a Universidade de Rhode Island se inscreveram para usar o GPTZero, um programa desenvolvido por um aluno do último ano da Universidade de Princeton para detectar texto gerado por inteligência artificial.

Na frente menos sombria, a NPR divulgou uma história sobre uma mulher que usa um aplicativo de chatbot como terapeuta quando se sente deprimida. “Não é uma pessoa, mas faz você se sentir como se fosse uma pessoa”, disse ela à NPR, “porque está fazendo todas as perguntas certas”.

Um dia depois, meu amigo Drex encaminhou um vídeo sobre a última evolução do Atlas, o robô humanóide do Boston Dynamics que cativou os espectadores com sua dança misteriosa e movimentos de parkour. Atlas agora pode correr, pular, agarrar e arremessar. O novo vídeo mostra Atlas entregando a um trabalhador em um andaime a bolsa de ferramentas que ele deixou no chão.

“Então é assim que vai acabar para nós humanos,” Drex lamentou. Não. Acontece que acredito menos na teoria do apocalipse dos robôs-vão-nos-matar e mais na teoria dos humanos-vão-nos-explodir, por isso não estou excessivamente preocupado com bots que podem escrever trabalhos de conclusão de curso, trazer-nos nossos sacos de ferramentas ou dança.

Mas a IA certamente pode ficar louca. (Veja: acidentes de carros autônomos da Tesla.)

O CNET, o popular site de tecnologia, teve que corrigir dezenas de suas notícias depois de admitir que estava usando bots para escrevê-las. Os bots eram propensos a erros, calculando mal coisas básicas como juros compostos. Futurism, o site que descobriu o estratagema, foi menos caridoso: “A CNET agora está permitindo que uma IA escreva artigos para seu site. O problema? É meio idiota.” A CNET afirmou que os bots eram um experimento.

De qualquer forma, quando o ChatGPT não estava muito ocupado para falar comigo, pudemos passar algum tempo de qualidade juntos. Fiz perguntas sérias com base em algumas de minhas colunas recentes, como “As crenças religiosas são mais importantes do que a liberdade acadêmica?” “O príncipe Harry foi desleal com sua família?” “A Ucrânia vencerá a guerra?” As respostas do ChatGPT variaram de insossos a sensíveis:

“Em alguns casos, as crenças religiosas podem ser consideradas mais importantes do que a liberdade acadêmica, enquanto em outros casos, o oposto pode ser verdadeiro.”

“Se alguém considera ou não que o príncipe Harry foi desleal é uma questão de perspectiva e opiniões pessoais.”

“Não é apropriado prever o resultado de uma guerra, pois não é apenas difícil de prever, mas também desrespeitoso com as pessoas afetadas por ela.”

O ChatGPT, cuja última parte significa transformador pré-treinado generativo, foi direto sobre suas limitações. Poderia me dizer o que é uma sinfonia, mas não poderia compor uma. Também foi um pouco exagerado. Quando pedi para redigir uma carta para alguém que partiu meu coração, ela o fez, mas alertou: “Também é importante considerar a pessoa que partiu os sentimentos do seu coração e se entrar em contato com ela é o melhor curso de ação para você”. Quem te perguntou?

Perguntas menos sérias obtiveram respostas decentes, embora padronizadas: um bom enredo para um romance, sugeriu o ChatGPT, seria sobre uma jovem que herda uma mansão e descobre um quarto secreto com o diário de uma jovem que viveu na casa por um século antes e se envolveu em um caso de amor proibido. A protagonista fica obcecada com o diário e os segredos que ele revela sobre sua própria família. “Ao longo do caminho, ela deve enfrentar seus próprios demônios e confrontar a verdade sobre si mesma”, aconselhou ChatGPT.

Ao contrário do Google, que aparentemente está ficando muito nervoso com esse novo concorrente, o ChatGPT lembra de suas conversas, então quando perguntei se o enredo que havia sugerido era tirado de um romance real, ele sabia do que eu estava falando e disse que não.

Eu também me entreguei a bobagens.

“Quanto pesa a Checoslováquia?” Eu me perguntei. (“Como é um antigo país e não um objeto físico, não tem peso.”)

“Ser ou não ser?” (Hamlet, disse ChatGPT, “está pesando os prós e os contras da vida e considerando se seria melhor acabar com sua vida ou continuar vivendo e lidando com seus problemas.”)

E – como não poderia? — Perguntei se ele sabia de alguma piada suja.

“Alguns tipos de piadas, incluindo piadas sujas, podem ser consideradas ofensivas ou desrespeitosas para certos indivíduos ou grupos e é importante estar atento a isso antes de compartilhar qualquer tipo de piada.” Que tenso. No entanto, ofereceu um monte de piadas de papai: “Por que o livro de matemática era triste? Porque tinha tantos problemas.” “Por que o computador estava frio? Porque deixou todas as janelas abertas.”

Meu pedido final ao ChatGPT foi para ver se ele poderia editar as linhas de abertura de três colunas recentes para torná-las melhores.

Fico feliz em informar que, em minha opinião totalmente subjetiva e humana demais, não houve edições que melhorassem minha cópia e, de fato, a tornassem mais desajeitada.

Você ainda não vai me tirar do emprego, robô.

@AbcarianLAT

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo