technology

Medos equivocados de um ChatGPT ‘maligno’ obscurecem o dano real causado | John Naughton

.

Om 14 de fevereiro, Kevin Roose, o New York Times colunista de tecnologia, teve uma conversa de duas horas com o Bing, o mecanismo de busca aprimorado do ChatGPT da Microsoft. Ele emergiu da experiência como um homem aparentemente mudado, porque o chatbot havia dito a ele, entre outras coisas, que gostaria de ser humano, que nutria desejos destrutivos e estava apaixonado por ele.

A transcrição da conversa, junto com a aparição de Roose na capa do jornal O diário podcast, aumentou imediatamente o pânico moral já existente sobre as implicações de grandes modelos de linguagem (LLMs), como GPT-3.5 (que aparentemente sustenta o Bing) e outras ferramentas de “IA generativa” que agora estão soltas no mundo. Estes são vistos como artefatos cronicamente não confiáveis, como exemplos de tecnologia que está fora de controle ou como precursores da chamada inteligência artificial geral (AGI) – ou seja, inteligência de nível humano – e, portanto, representam uma ameaça existencial para a humanidade.

Acompanhando essa histeria está uma nova corrida do ouro, à medida que capitalistas de risco e outros investidores se esforçam para entrar em ação. Parece que todo esse dinheiro está queimando buracos em bolsos muito fundos. Felizmente, isso tem seus lados cômicos. Isso sugere, por exemplo, que os chatbots e LLMs substituíram a criptografia e a web 3.0 como a próxima grande novidade, o que, por sua vez, confirma que a indústria de tecnologia coletivamente tem a atenção de um tritão.

O mais estranho de tudo, porém, é que o pandemônio foi desencadeado pelo que um de seus principais pesquisadores chamou de “papagaios estocásticos” – com o que ela quer dizer que os chatbots movidos a LLM são máquinas que predizem continuamente qual palavra é estatisticamente mais provável de seguir. o anterior. E isso não é magia negra, mas um processo computacional bem compreendido e claramente descrito pelo professor Murray Shanahan e elegantemente dissecado pelo cientista da computação Stephen Wolfram.

Como podemos entender toda essa loucura? Um bom ponto de partida é afastar as pessoas de seu desejo incurável de interpretar as máquinas de maneira antropocêntrica. Desde a Eliza de Joe Weizenbaum, humanos interagindo com chatbots parecem querer humanizar o computador. Isso era absurdo com Eliza – que estava simplesmente executando um script escrito por seu criador – então talvez seja compreensível que os humanos que agora interagem com o ChatGPT – que aparentemente podem responder de forma inteligente à entrada humana – caiam na mesma armadilha. Mas ainda é chato.

O persistente rebagging de LLMs como “AI” também não ajuda. Essas máquinas são certamente artificiais, mas considerá-las “inteligentes” parece-me exigir uma concepção bastante empobrecida de inteligência. Alguns observadores, porém, como o filósofo Benjamin Bratton e o cientista da computação Blaise Agüera y Arcas, são menos desdenhosos. “É possível”, eles admitem, “que esses tipos de IA sejam ‘inteligentes’ – e até mesmo ‘conscientes’ de alguma forma – dependendo de como esses termos são definidos”, mas “nenhum desses termos pode ser muito útil se forem definido de maneiras fortemente antropocêntricas”. Eles argumentam que devemos distinguir senciência de inteligência e consciência e que “a verdadeira lição para a filosofia da IA ​​é que a realidade ultrapassou a linguagem disponível para analisar o que já está à mão. Um vocabulário mais preciso é essencial.”

Isso é. Por enquanto, porém, estamos presos à histeria. Um ano é muito tempo nesta indústria. Apenas dois anos atrás, lembre-se, as próximas grandes coisas seriam criptografia/web 3.0 e computação quântica. A primeira desmoronou sob o peso de seu próprio absurdo, enquanto a segunda está, como a fusão nuclear, ainda no horizonte.

Com chatbots e LLMs, o resultado mais provável é que eles acabarão sendo vistos como um aumento significativo das capacidades humanas (planilhas sobre esteróides, como disse um colega cínico). Se isso acontecer, os principais beneficiários (como em todas as corridas do ouro anteriores) serão os fornecedores de picaretas e pás, que neste caso são os recursos de computação em nuvem necessários para a tecnologia LLM e de propriedade de grandes corporações.

Diante disso, não é interessante que a única coisa sobre a qual ninguém fala no momento seja o impacto ambiental da grande quantidade de computação necessária para treinar e operar LLMs? Um mundo dependente deles pode ser bom para os negócios, mas certamente seria ruim para o planeta. Talvez fosse isso que Sam Altman, o CEO da OpenAI, empresa que criou o ChatGPT, tinha em mente quando observou que “a IA provavelmente levará ao fim do mundo, mas, enquanto isso, haverá grandes empresas” .

O que eu tenho lido

Perfis de dor
Social Media Is a Major Cause of the Mental Illness Epidemic in Teen Girls é uma pesquisa impressionante do psicólogo Jonathan Haidt.

Agradável ao público
O que o poeta, playboy e profeta das bolhas ainda pode nos ensinar é um belo ensaio de Tim Harford sobre a loucura das multidões, entre outras coisas.

Realeza da tecnologia
O que Mary, Rainha da Escócia, pode ensinar aos geeks de segurança de computadores de hoje é uma postagem intrigante de Rupert Goodwins no Register.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo