technology

“Quais devem ser os limites?” O pai do ChatGPT sobre se a IA salvará a humanidade – ou a destruirá | Inteligência Artificial (IA)

.

Cuando conheço Sam Altman, o executivo-chefe do laboratório de pesquisa de IA OpenAI, ele está no meio de uma turnê mundial. Ele está pregando que os próprios sistemas de IA que ele e seus concorrentes estão construindo podem representar um risco existencial para o futuro da humanidade – a menos que os governos trabalhem juntos agora para estabelecer trilhos de guia, garantindo o desenvolvimento responsável na próxima década.

Nos dias seguintes, ele e centenas de líderes tecnológicos, incluindo cientistas e “padrinhos da IA”, Geoffrey Hinton e Yoshua Bengio, bem como o CEO da DeepMind do Google, Demis Hassabis, divulgaram uma declaração dizendo que “mitigar o risco de extinção por A IA deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”. É um esforço total para convencer os líderes mundiais de que eles falam sério quando dizem que o “risco de IA” precisa de um esforço internacional coordenado.

Deve ser uma posição interessante para se estar – Altman, 38, é o pai do AI chatbot ChatGPT, afinal, e está liderando o esforço para criar “inteligência geral artificial”, ou AGI, um sistema de IA capaz de lidar com qualquer tarefa a humano pode alcançar. Onde “AI” é usado para descrever algo mais complexo do que um Tamagotchi, AGI é a coisa real: a inteligência de nível humano de histórias como Her, Star Trek, Terminator, 2001: A Space Odyssey e Battlestar Galactica.

ARQUIVO - O logotipo da OpenAI é visto em um telefone celular na frente de uma tela de computador exibindo a saída do ChatGPT, 21 de março de 2023, em Boston.  O chefe da empresa de inteligência artificial que fabrica o ChatGPT deve testemunhar no Congresso, enquanto os legisladores pedem novas regras para orientar o rápido desenvolvimento da tecnologia de IA.  O CEO da OpenAI, Sam Altman, deve falar em uma audiência no Senado na terça-feira, 16 de maio. (AP Photo/Michael Dwyer, Arquivo)
Fotografia: Michael Dwyer/AP

Em sua turnê mundial, complicando ainda mais sua posição, Altman também está pregando algo além dos perigos do desenvolvimento de IA descontrolado. Ele está argumentando que os benefícios de desenvolver “superinteligência” – um AGI aumentado para 11, capaz de resolver problemas que a humanidade não conseguiu resolver – são tão grandes que deveríamos arriscar a destruição de tudo para tentar fazê-lo de qualquer maneira.

São algumas semanas cansativas. No dia em que o conheci, ele acordou em Paris tendo se encontrado com Emmanuel Macron na noite anterior. Uma viagem Eurostar para Londres e um rápido salto para Oxford mais tarde, ele está dando uma palestra para o Oxford Guild, uma sociedade estudantil focada em negócios, antes de mais algumas reuniões, depois para o número 10 para sentar com Rishi Sunak. Mais tarde, ele embarca em um voo para Varsóvia antes de seguir para Munique na manhã seguinte. Sua equipe de relações públicas está entrando e saindo, mas Altman está nela por um período de cinco semanas.

“Adoro São Francisco e a Bay Area”, diz ele no palco do evento em Oxford. “Mas é um lugar estranho e é uma câmara de eco. Marcamos essa viagem para começar a responder a essa pergunta, com líderes em diferentes lugares, sobre, tipo, quais deveriam ser os limites desses sistemas, para decidir como os benefícios deveriam ser compartilhados. E há perspectivas muito diferentes entre a maior parte do mundo e São Francisco.”

Para a exasperação de sua equipe, ouvir tantas perspectivas quanto possível claramente tem prioridade sobre os planos para o dia. Depois de um evento na UCL, ele se aproxima da platéia – uma conversa casual que leva às manchetes do Time e do FT. Quando ele está prestes a se sentar e começar a falar comigo, ele sai para falar com um pequeno grupo de manifestantes segurando cartazes exortando a OpenAI a “parar a corrida suicida da AGI”.

“Pare de tentar construir um AGI e comece a tentar garantir que os sistemas de IA sejam seguros”, diz um dos manifestantes, um estudante da Universidade de Oxford chamado Gideon Futerman. “Se nós, e eu acho que você, acha que os sistemas AGI podem ser significativamente perigosos, não entendo por que deveríamos correr o risco.”

Altman, um clássico fundador do abandono nos moldes de Mark Zuckerberg – ele deixou a universidade de Stanford em seu terceiro ano para lançar uma rede social chamada Loopt – parece em pleno modo político enquanto tenta encontrar um meio-termo. “Acho que uma corrida em direção ao AGI é uma coisa ruim”, diz Altman, “e acho que não progredir na segurança é uma coisa ruim”. Mas, ele diz ao manifestante, a única maneira de obter segurança é com o “progresso de capacidade” – construindo sistemas de IA mais fortes, para melhor estimulá-los e entender como eles funcionam.

Altman deixa Futerman não convencido, mas quando voltamos para baixo, ele está otimista sobre o confronto. “É bom ter essas conversas”, diz ele. “Uma coisa sobre a qual tenho falado muito nesta viagem é como é uma estrutura regulatória global para superinteligência.” Um dia antes de nos encontrarmos, Altman e seus colegas publicaram uma nota descrevendo sua visão para esse regulamento: um órgão internacional modelado na Agência Internacional de Energia Atômica, para coordenar laboratórios de pesquisa, impor padrões de segurança, rastrear o poder de computação dedicado a sistemas de treinamento e, eventualmente, até mesmo restringir certas abordagens completamente.

Ele ficou surpreso com a resposta. “Há muito interesse em saber mais; mais do que eu esperava, de políticos e reguladores muito seniores, sobre como isso pode parecer. Tenho certeza de que falaremos sobre muitas coisas de curto prazo também.”

Mas essa distinção, entre o curto e o longo prazo, rendeu a Altman muitas críticas em sua turnê. Afinal, é do interesse da OpenAI focar a atenção regulatória no risco existencial se isso distrair os governos de lidar com o dano potencial que os produtos da empresa já são capazes de causar. A empresa já entrou em conflito com a Itália sobre a proteção de dados do ChatGPT, enquanto Altman começou sua viagem com uma visita a Washington DC para passar várias horas sendo questionado por senadores americanos sobre tudo, desde desinformação a violações de direitos autorais.

“É engraçado”, diz Altman, “as mesmas pessoas vão nos acusar de não nos importarmos com as coisas de curto prazo e também de tentar buscar a captura regulatória” – a ideia de que, se regulamentações onerosas forem implementadas, apenas o OpenAI e alguns outros líderes de mercado terão os recursos para cumprir. “Acho que tudo é importante. Existem diferentes escalas de tempo, mas temos que enfrentar cada um desses desafios.” Ele revela algumas preocupações: “Acho que está acontecendo uma coisa muito séria, uma desinformação sofisticada; outro um pouco depois disso, talvez sobre segurança cibernética. Estes são muito importantes, mas nossa missão particular é sobre AGI. E então acho muito razoável falarmos mais sobre isso, embora também trabalhemos em outras coisas.

Ele se irrita um pouco quando sugiro que as motivações da empresa podem ser motivadas pelo lucro. “Não precisamos ganhar tudo. Somos uma empresa incomum: queremos levar essa revolução ao mundo, descobrir como torná-la segura e extremamente benéfica. Mas não penso sobre as coisas da mesma forma que penso que você pensa sobre esses tópicos.

OpenAI é realmente incomum. A organização foi fundada em 2015 como uma organização sem fins lucrativos com uma doação de US$ 1 bilhão de patrocinadores, incluindo Elon Musk, o cofundador do PayPal, Peter Thiel, e o cofundador do LinkedIn, Reid Hoffman. Altman inicialmente atuou como copresidente ao lado de Musk, com o objetivo de “avançar a inteligência digital da maneira mais provável para beneficiar a humanidade como um todo, sem restrições pela necessidade de gerar retorno financeiro”. Mas isso mudou em 2019, quando a organização se reformulou em torno de um modelo de “lucro limitado”. Altman tornou-se CEO e a organização começou a receber investimentos externos, com a condição de que nenhum investidor pudesse ganhar mais de 100 vezes sua entrada inicial.

A lógica era simples: trabalhar na vanguarda da pesquisa de IA era muito mais caro do que parecia à primeira vista. “Não há como permanecer na vanguarda da pesquisa de IA, muito menos construir AGI, sem aumentarmos massivamente nosso investimento em computação”, disse o cientista-chefe da OpenAI, Ilya Sutskever, na época. Altman, já rico de forma independente – ele fez sua primeira fortuna com a Loopt e a segunda como presidente da aceleradora de startups Y Combinator – não adquiriu nenhuma participação acionária na nova empresa. Se a IA acabar remodelando o mundo, ele não se beneficiará mais do que o resto de nós.

Isso é importante, ele diz, porque enquanto Altman está convencido de que o arco se inclina para a reformulação sendo amplamente positivo, onde ele tem menos certeza é quem vence. “Não quero dizer que tenho certeza. Tenho certeza de que vai elevar o padrão de vida de todos e, honestamente, se a escolha for elevar o padrão de vida de todos, mas manter a desigualdade, eu ainda aceitaria isso. E acho que provavelmente podemos concordar que se [safe AGI] é construído, ele pode fazer isso. Mas pode ser uma força muito equalizadora. Algumas tecnologias são e outras não, e algumas fazem as duas coisas de maneiras diferentes. Mas acho que você pode ver várias maneiras, onde, se todos na Terra tivessem uma educação muito melhor, cuidados de saúde muito melhores, uma vida que simplesmente não é possível por causa do preço atual do trabalho cognitivo – isso é uma força equalizadora em um forma que pode ser poderosa.”

Altman falando à mídia depois de testemunhar perante o subcomitê do Senado sobre privacidade, tecnologia e lei no mês passado.
Altman falando à mídia depois de testemunhar perante o subcomitê do Senado sobre privacidade, tecnologia e lei no mês passado. Fotografia: Jim Lo Scalzo/EPA

Nisso, ele está protegendo suas apostas, no entanto. Altman também se tornou um defensor vocal de uma variedade de formas de renda básica universal, argumentando que será cada vez mais importante descobrir como compartilhar equitativamente os ganhos do progresso da IA ​​durante um período em que a interrupção de curto prazo pode ser grave. É nisso que seu projeto paralelo, uma startup criptográfica chamada Worldcoin, está focada em resolver – ela se propôs a escanear a íris de cada pessoa na Terra, a fim de construir uma renda básica universal baseada em criptomoeda. Mas não é sua única abordagem. “Talvez seja possível que o componente mais importante da riqueza no futuro seja o acesso a esses sistemas – nesse caso, você pode pensar em redistribuir isso por conta própria.”

Em última análise, tudo se resume ao objetivo de criar um mundo onde a superinteligência trabalhe para nós, e não contra nós. Antigamente, diz Altman, sua visão do futuro era o que reconheceríamos da ficção científica. “A maneira que eu costumava pensar sobre ir em direção à superinteligência é que iríamos construir este sistema extremamente capaz. Havia um monte de desafios de segurança com isso, e era um mundo que parecia bastante instável.” Se o OpenAI ativar sua versão mais recente do ChatGPT e descobrir que é mais inteligente do que toda a humanidade combinada, é fácil começar a traçar um conjunto bastante niilista de resultados: quem conseguir assumir o controle do sistema pode usá-lo para assumir o controle do mundo, e seria difícil de derrubar por qualquer pessoa, exceto pelo próprio sistema.

Agora, porém, Altman está vendo um curso mais estável se apresentar: “Agora vemos um caminho em que construímos essas ferramentas que se tornam cada vez mais poderosas. E há bilhões, ou trilhões, de cópias sendo usadas no mundo, ajudando pessoas individuais a serem muito mais eficazes, capazes de fazer muito mais. A quantidade de produção que uma pessoa pode ter pode aumentar dramaticamente, e onde a superinteligência emerge não é apenas a capacidade de nossa maior rede neural única, mas toda a nova ciência que estamos descobrindo, todas as coisas novas que estamos criando .

“Não é que não possa ser interrompido”, diz ele. Se os governos de todo o mundo decidirem agir em conjunto para limitar o desenvolvimento da IA, como fizeram em outros campos, como a clonagem humana ou a pesquisa de armas biológicas, talvez consigam. Mas isso seria desistir de tudo o que é possível. “Acho que este será o salto mais tremendo na qualidade de vida das pessoas que já tivemos e acho que, de alguma forma, isso se perde na discussão.”

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo