technology

‘Nós descobrimos o segredo da imortalidade. A má notícia é que não é para nós’: por que o padrinho da IA ​​teme pela humanidade | Inteligência Artificial (IA)

.

TA primeira coisa que Geoffrey Hinton diz quando começamos a conversar, e a última coisa que ele repete antes de eu desligar meu gravador, é que ele deixou o Google, seu empregador na última década, em bons termos. “Não tenho objeções ao que o Google fez ou está fazendo, mas obviamente a mídia adoraria me rotular como ‘um funcionário descontente do Google’. Não é desse jeito.”

É um esclarecimento importante a fazer, porque é fácil concluir o contrário. Afinal, quando a maioria das pessoas descreve calmamente seu ex-empregador como sendo parte de um pequeno grupo de empresas traçando um curso que tem uma probabilidade alarmante de acabar com a própria humanidade, elas o fazem com um sentimento de opróbrio. Mas, para ouvir Hinton, estamos prestes a caminhar como sonâmbulos em direção a uma ameaça existencial à civilização sem que ninguém envolvido aja maliciosamente.

Conhecido como um dos três “padrinhos da IA”, Hinton ganhou em 2018 o prêmio ACM Turing – o prêmio Nobel dos cientistas da computação por seu trabalho em “aprendizagem profunda”. Psicólogo cognitivo e cientista da computação por formação, ele não foi motivado pelo desejo de melhorar radicalmente a tecnologia: em vez disso, foi para entender mais sobre nós mesmos.

“Nos últimos 50 anos, tenho tentado fazer modelos de computador que possam aprender coisas um pouco como o cérebro aprende, para entender melhor como o cérebro está aprendendo as coisas”, ele me disse quando nos encontramos em a casa de sua irmã no norte de Londres, onde ele está hospedado (geralmente reside no Canadá). Pairando um pouco sobre mim – ele prefere falar em pé, ele diz – o tom é estranhamente reminiscente de um tutorial universitário, enquanto o ex-professor de 75 anos explica sua história de pesquisa e como ela inevitavelmente o levou à conclusão de que podemos estar condenados.

Ao tentar modelar como o cérebro humano funciona, Hinton se tornou um dos líderes no campo da “rede neural”, uma abordagem para a construção de sistemas de computador que podem aprender com dados e experiências. Até recentemente, as redes neurais eram uma curiosidade, exigindo grande capacidade computacional para realizar tarefas simples pior do que outras abordagens. Mas na última década, quando a disponibilidade de poder de processamento e vastos conjuntos de dados explodiu, a abordagem pioneira de Hinton acabou no centro de uma revolução tecnológica.

“Ao tentar pensar em como o cérebro poderia implementar o algoritmo por trás de todos esses modelos, decidi que talvez não pudesse – e talvez esses grandes modelos sejam realmente muito melhores do que o cérebro”, diz ele.

Uma “inteligência biológica” como a nossa, diz ele, tem vantagens. Funciona com baixa potência, “apenas 30 watts, mesmo quando você está pensando”, e “cada cérebro é um pouco diferente”. Isso significa que aprendemos imitando os outros. Mas essa abordagem é “muito ineficiente” em termos de transferência de informações. As inteligências digitais, por outro lado, têm uma enorme vantagem: é trivial compartilhar informações entre várias cópias. “Você paga um custo enorme em termos de energia, mas quando um deles aprende alguma coisa, todos sabem e você pode facilmente armazenar mais cópias. A boa notícia é que descobrimos o segredo da imortalidade. A má notícia é que não é para nós.”

Uma vez que ele aceitou que estávamos construindo inteligências com potencial para superar a humanidade, as conclusões mais alarmantes se seguiram. “Pensei que acabaria por acontecer, mas tínhamos muito tempo: 30 a 50 anos. Eu não acho mais isso. E não conheço nenhum exemplo de coisas mais inteligentes sendo controladas por coisas menos inteligentes – pelo menos não desde que Biden foi eleito.

“Você precisa imaginar algo mais inteligente do que nós pela mesma diferença que somos mais inteligentes do que um sapo. E vai aprender com a web, vai ter lido todos os livros que já foram escritos sobre como manipular as pessoas, e também visto isso na prática.”

Ele agora acha que o momento crítico chegará nos próximos cinco a 20 anos, diz ele. “Mas eu não descartaria um ou dois anos. E eu ainda não descartaria 100 anos – é só que minha confiança de que isso não aconteceria por um bom tempo foi abalada pela percepção de que a inteligência biológica e a inteligência digital são muito diferentes, e a inteligência digital é provavelmente muito melhor. ”

Ainda há uma espécie de esperança de que o potencial da IA ​​possa ser superestimado. “Eu tenho uma grande incerteza no momento. É possível que grandes modelos de linguagem”, a tecnologia que sustenta sistemas como o ChatGPT, “tendo consumido todos os documentos na web, não consigam ir muito além, a menos que tenham acesso também a todos os nossos dados privados. Não quero descartar coisas assim – acho que as pessoas que estão confiantes nessa situação são loucas.” No entanto, diz ele, a maneira certa de pensar sobre as chances de um desastre está mais próxima de um simples cara ou coroa do que gostaríamos.

Esse desenvolvimento, ele argumenta, é uma consequência inevitável da tecnologia sob o capitalismo. “Não é que o Google tenha sido ruim. Na verdade, o Google é o líder nesta pesquisa, os principais avanços técnicos subjacentes a essa onda vieram do Google e ele decidiu não divulgá-los diretamente ao público. O Google estava preocupado com todas as coisas com as quais nos preocupamos, ele tem uma boa reputação e não quer estragar tudo. E acho que foi uma decisão justa e responsável. Mas o problema é que, em um sistema capitalista, se seu concorrente fizer isso, não há nada que você possa fazer a não ser fazer o mesmo.”

Ele decidiu deixar o emprego no Google, disse ele, por três razões. Um deles era simplesmente a idade dele: aos 75 anos, ele “não é tão bom nas coisas técnicas quanto eu costumava ser, e é muito chato não ser tão bom quanto você costumava ser. Então decidi que era hora de me aposentar do trabalho real.” Mas, em vez de permanecer em uma posição cerimonial bem remunerada, ele sentiu que era importante cortar totalmente os laços, porque, “se você trabalha para uma empresa, é inevitável a autocensura. Se sou funcionário do Google, preciso continuar pensando: ‘Como isso afetará os negócios do Google?’ E a outra razão é que, na verdade, há muitas coisas boas que eu gostaria de dizer sobre o Google, e elas são mais confiáveis ​​se eu não estiver no Google.”

Desde que veio a público sobre seus medos, Hinton foi criticado por não seguir alguns de seus colegas ao desistir antes. Em 2020, Timnit Gebru, o colíder técnico da equipe ética de IA do Google, foi demitido pela empresa depois que uma disputa sobre um trabalho de pesquisa se transformou em um amplo conflito sobre as políticas de diversidade e inclusão da empresa. Uma carta assinada por mais de 1.200 funcionários do Google se opôs à demissão, dizendo que “prenuncia perigo para as pessoas que trabalham para uma IA ética e justa no Google”.

Mas há uma divisão dentro da facção da IA ​​sobre quais riscos são mais prementes. “Estamos em um momento de grande incerteza”, diz Hinton, “e pode ser que seja melhor não falar sobre os riscos existenciais para não desviar a atenção dessas outras coisas. [such as issues of AI ethics and justice]. Mas então, e se por não termos falado sobre isso, acontecer?” Simplesmente focar no uso de curto prazo da IA, para resolver os problemas éticos e de justiça presentes na tecnologia hoje, não necessariamente melhorará as chances de sobrevivência da humanidade como um todo, diz ele.

Não que ele saiba o que vai acontecer. “Eu não sou um cara da política. Sou apenas alguém que de repente percebeu que existe o perigo de algo muito ruim acontecer. Eu quero que todos os melhores cérebros que conhecem a IA – não apenas filósofos, políticos e especialistas em política, mas pessoas que realmente entendem os detalhes do que está acontecendo – pensem muito sobre essas questões. E muitos deles são, mas acho que é algo em que precisamos nos concentrar”.

Desde que falou pela primeira vez na segunda-feira, ele tem recusado pedidos da mídia mundial a uma taxa de um a cada dois minutos (ele concordou em se encontrar com o Guardian, disse ele, porque é leitor há 60 anos, desde ele saiu do Daily Worker nos anos 60). “Tenho três pessoas que atualmente querem falar comigo – Bernie Sanders, Chuck Schumer e Elon Musk. Ah, e a Casa Branca. Estou adiando todos eles até ter um pouco mais de tempo. Achei que quando me aposentasse teria muito tempo para mim.”

Ao longo de nossa conversa, seu tom de voz levemente jovial está um pouco em desacordo com a mensagem de desgraça e destruição que ele está transmitindo. Pergunto-lhe se tem alguma razão para ter esperança. “Muitas vezes, as pessoas parecem sair de situações que pareciam sem esperança e ficar bem. Tipo, armas nucleares: a guerra fria com essas armas poderosas parecia uma situação muito ruim. Outro exemplo seria o problema do ‘Ano 2000’. Não era nada parecido com esse risco existencial, mas o fato de que as pessoas o viam com antecedência e faziam um grande alarido significava que as pessoas exageravam, o que era muito melhor do que reagir de menos.

“A razão pela qual nunca foi um problema é porque as pessoas realmente resolveram isso antes que acontecesse.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo