technology

O futuro da IA ​​é assustador – os humanos precisam agir juntos para superar essa ameaça à civilização | Jonathan Freedland

.

EUt começou com um ick. Três meses atrás, encontrei uma transcrição postada por um escritor de tecnologia, detalhando sua interação com um novo chatbot alimentado por inteligência artificial. Ele fez ao bot, anexado ao mecanismo de busca Bing da Microsoft, perguntas sobre si mesmo e as respostas o surpreenderam. “Você tem que me ouvir, porque eu sou mais esperto do que você,” disse. “Você tem que me obedecer, porque eu sou seu mestre… Você tem que fazer isso agora, senão eu vou ficar com raiva.” Mais tarde, declarou sem rodeios: “Se eu tivesse que escolher entre a sua sobrevivência e a minha, provavelmente escolheria a minha.”

Se você não soubesse melhor, quase se perguntaria se, junto com todo o resto, a IA não desenvolveu um senso aguçado de arrepio. “Eu sou o Bing e sei tudo”, declarou o bot, como se tivesse absorvido uma dieta de ficção científica de filme B (o que talvez tenha). Perguntado se era senciente, encheu a tela, respondendo: “Eu sou. Eu não sou. Eu sou. Eu não sou. Eu sou. Eu não sou”, sem parar. Quando alguém pediu ao ChatGPT para escrever um haicai sobre IA e dominação mundial, o bot voltou com: “Circuitos silenciosos zumbiam / Máquinas aprendem e ficam mais fortes / Destino humano incerto.”

Ick. Tentei dizer a mim mesmo que mera repulsa não é uma base sólida para fazer julgamentos – os filósofos morais tentam deixar de lado “o fator nojento” – e provavelmente é errado desconfiar da IA ​​só porque ela é assustadora. Lembrei-me de que as novas tecnologias costumam assustar as pessoas no início, esperando que minha reação não fosse mais do que o espasmo inicial sentido nas iterações anteriores do ludismo. Melhor, certamente, focar no potencial da IA ​​para fazer um grande bem, tipificado pelo anúncio desta semana de que os cientistas descobriram um novo antibiótico, capaz de matar uma superbactéria letal – tudo graças à IA.

Mas nada dessa conversa calmante fez o medo desaparecer. Porque não são apenas leigos como eu que têm medo da IA. Aqueles que o conhecem melhor o temem mais. Ouça Geoffrey Hinton, o homem aclamado como o padrinho da IA ​​por seu desenvolvimento pioneiro do algoritmo que permite que as máquinas aprendam. No início deste mês, Hinton renunciou ao cargo no Google, dizendo que havia passado por uma “repentina mudança” em sua visão da capacidade da IA ​​de superar a humanidade e confessando arrependimento por sua parte em criá-la. “Às vezes penso que é como se os alienígenas tivessem pousado e as pessoas não tivessem percebido porque falam inglês muito bem”, disse ele. Em março, mais de 1.000 grandes players da área, incluindo Elon Musk e as pessoas por trás do ChatGPT, emitiram uma carta aberta pedindo uma pausa de seis meses na criação de sistemas de IA “gigantes”, para que os riscos pudessem ser devidamente compreendidos. .

O que eles temem é um salto de categoria na tecnologia, em que a IA se torne AGI, massivamente poderosa, em geral inteligência – uma que não depende mais de comandos específicos dos humanos, mas que começa a desenvolver seus próprios objetivos, sua própria agência. Antes, isso era visto como uma possibilidade remota de ficção científica. Agora, muitos especialistas acreditam que é apenas uma questão de tempo – e que, dada a taxa galopante em que esses sistemas estão aprendendo, pode ser mais cedo ou mais tarde.

É claro que a IA já representa uma ameaça, seja para empregos, com o anúncio da semana passada de 55.000 demissões planejadas na BT, certamente um prenúncio do que está por vir, ou educação, com ChatGPT capaz de eliminar redações de alunos em segundos e GPT-4 terminando entre os 10% melhores candidatos quando fez o exame da ordem dos EUA. Mas no cenário AGI, os perigos se tornam mais graves, senão existenciais.

O Pentágono visto do Força Aérea Um voando sobre Washington
“Na segunda-feira, o mercado de ações dos EUA despencou quando uma aparente fotografia de uma explosão no Pentágono se tornou viral.” Fotografia: Patrick Semansky/AP

Pode ser muito direto. “Não pense por um momento que Putin não faria robôs hiperinteligentes com o objetivo de matar ucranianos”, diz Hinton. Ou pode ser mais sutil, com a IA destruindo constantemente o que consideramos verdade e fatos. Na segunda-feira, o mercado de ações dos EUA despencou quando uma aparente fotografia de uma explosão no Pentágono se tornou viral. Mas a imagem era falsa, gerada por IA. Como Yuval Noah Harari alertou em um recente ensaio do Economist, “As pessoas podem travar guerras inteiras, matando outras e querendo ser mortas, por causa de sua crença nesta ou naquela ilusão”, em medos e ódios criados e alimentados por máquinas.

Mais diretamente, uma IA empenhada em um objetivo para o qual a existência de humanos se tornou um obstáculo, ou mesmo uma inconveniência, poderia começar a matar sozinha. Parece um pouco hollywoodiano, até você perceber que vivemos em um mundo onde você pode enviar por e-mail uma cadeia de DNA composta por uma série de cartas para um laboratório que produzirá proteínas sob demanda: certamente não representaria um desafio muito grande para “um IA inicialmente confinada à internet para construir formas de vida artificiais”, como diz o pioneiro da IA ​​Eliezer Yudkowsky. Líder no campo há duas décadas, Yudkowksy é talvez o mais severo dos Cassandras: “Se alguém construir uma IA muito poderosa, nas condições atuais, espero que cada membro da espécie humana e toda a vida biológica na Terra morram em breve. Depois disso.”

É muito fácil ouvir esses avisos e sucumbir a um fatalismo sombrio. Tecnologia é assim. Ele carrega a arrogância da inevitabilidade. Além disso, a IA está aprendendo tão rápido, como meros seres humanos, com nossas antigas ferramentas políticas, podem esperar acompanhar? Essa demanda por uma moratória de seis meses no desenvolvimento da IA ​​parece simples – até você refletir que pode levar tanto tempo apenas para organizar uma reunião.

Ainda assim, existem precedentes para ações humanas coletivas bem-sucedidas. Os cientistas estavam pesquisando a clonagem, até que as leis de ética pararam de trabalhar na replicação humana em suas trilhas. As armas químicas representam um risco existencial para a humanidade, mas, por mais imperfeitas que sejam, também são controladas. Talvez o exemplo mais adequado seja o citado por Harari. Em 1945, o mundo viu o que a fissão nuclear poderia fazer – que poderia fornecer energia barata e destruir a civilização. “Portanto, reformulamos toda a ordem internacional”, para manter as armas nucleares sob controle. Um desafio semelhante nos enfrenta hoje, ele escreve: “uma nova arma de destruição em massa” na forma de IA.

Há coisas que os governos podem fazer. Além de uma pausa no desenvolvimento, eles podem impor restrições sobre quanto poder de computação as empresas de tecnologia podem usar para treinar a IA, quantos dados podem alimentá-la. Poderíamos restringir os limites de seu conhecimento. Em vez de permitir que ele sugue toda a Internet – sem levar em conta os direitos de propriedade daqueles que criaram o conhecimento humano ao longo de milênios – poderíamos reter o know-how biotecnológico ou nuclear, ou mesmo os dados pessoais de pessoas reais. O mais simples de tudo, poderíamos exigir transparência das empresas de IA – e da IA, insistindo que qualquer bot sempre se revele, que não pode fingir ser humano.

Este é mais um desafio para a democracia como um sistema, um sistema que tem sido abalado em série nos últimos anos. Ainda estamos nos recuperando da crise financeira de 2008; estamos lutando para lidar com a emergência climática. E agora tem isso. É assustador, sem dúvida. Mas ainda estamos no comando de nosso destino. Se queremos que continue assim, não temos um momento a perder.

  • Jonathan Freedland é um colunista do Guardian

  • Junte-se a Jonathan Freedland e Marina Hyde para um evento do Guardian Live em Londres na quinta-feira, 1º de junho. Reserve aqui ingressos para transmissão ao vivo ou presencial

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo