.
Caso você tenha estado em algum outro lugar do sistema solar, aqui está uma breve atualização de notícias da IA. Peço desculpas se soa como o parágrafo de abertura de um romance de ficção científica ruim.
Em 14 de março de 2023, a OpenAI, uma empresa com sede em San Francisco e parte da Microsoft, lançou um sistema de IA chamado GPT-4. Em 22 de março, um relatório de um distinto grupo de pesquisadores da Microsoft, incluindo dois membros das Academias Nacionais dos EUA, afirmou que o GPT-4 exibe “faíscas de inteligência artificial geral”. (Inteligência geral artificial, ou AGI, é uma palavra-chave para sistemas de IA que correspondem ou excedem as capacidades humanas em toda a gama de tarefas às quais a mente humana é aplicável.) Em 29 de março, o Future of Life Institute, uma organização sem fins lucrativos dirigida pelo professor de física do MIT, Max Tegmark, divulgou uma carta aberta pedindo uma pausa nos “gigantes experimentos de IA”. Ele foi assinado por figuras conhecidas, como o CEO da Tesla, Elon Musk, o cofundador da Apple, Steve Wozniak, e o vencedor do prêmio Turing, Yoshua Bengio, além de centenas de proeminentes pesquisadores de IA. O furacão de mídia que se seguiu continua.
Também assinei a carta, na esperança de que (pelo menos) leve a uma conversa séria e focada entre formuladores de políticas, empresas de tecnologia e a comunidade de pesquisa de IA sobre quais tipos de salvaguardas são necessárias antes de seguirmos em frente. O tempo de dizer que isso é apenas pura pesquisa já passou há muito tempo.
Então, qual é o alarido? GPT-4, a causa proximal, é o exemplo mais recente de um grande modelo de linguagem, ou LLM. Pense em um LLM como um circuito muito grande com (neste caso) um trilhão de parâmetros ajustáveis. Começa como uma lousa em branco e é treinada com dezenas de trilhões de palavras de texto – tanto quanto todos os livros que a humanidade produziu. Seu objetivo é tornar-se bom em prever a próxima palavra em uma sequência de palavras. Após cerca de um bilhão de trilhões de perturbações aleatórias dos parâmetros, torna-se muito bom.
As capacidades do sistema resultante são notáveis. De acordo com o site da OpenAI, o GPT-4 pontua entre os primeiros por cento dos humanos em uma ampla gama de vestibulares e exames de pós-graduação. Ele pode descrever o teorema de Pitágoras na forma de um soneto de Shakespeare e criticar o projeto de discurso de um ministro do ponto de vista de um MP de qualquer partido político. Todos os dias, novas habilidades surpreendentes são descobertas. Não é de surpreender que milhares de corporações, grandes e pequenas, estejam procurando maneiras de monetizar esse suprimento ilimitado de inteligência quase gratuita. Os LLMs podem executar muitas das tarefas que abrangem os empregos de centenas de milhões de pessoas – qualquer pessoa cujo trabalho seja de língua para dentro, língua para fora. De forma mais otimista, as ferramentas criadas com LLMs podem oferecer educação altamente personalizada em todo o mundo.
Infelizmente, os LLMs são notórios por “alucinarem” – gerando respostas completamente falsas, muitas vezes apoiadas por citações fictícias – porque seu treinamento não tem conexão com o mundo exterior. Eles são ferramentas perfeitas para desinformação e alguns auxiliam e até encorajam o suicídio. Para seu crédito, a OpenAI sugere “evitar completamente usos de alto risco”, mas ninguém parece estar prestando atenção. Os próprios testes da OpenAI mostraram que o GPT-4 poderia mentir deliberadamente para um trabalhador humano (“Não, não sou um robô. Tenho uma deficiência visual que dificulta a visualização das imagens”) para obter ajuda para resolver um problema teste de captcha projetado para bloquear não-humanos.
Embora a OpenAI tenha feito grandes esforços para fazer com que o GPT-4 se comporte – “GPT-4 responde a solicitações confidenciais (por exemplo, aconselhamento médico e automutilação) de acordo com nossas políticas com 29% mais frequência” – o problema central é que nem o OpenAI nem ninguém tem nenhuma ideia real de como o GPT-4 funciona. Perguntei a Sébastien Bubeck, principal autor do artigo “faíscas”, se o GPT-4 desenvolveu seus próprios objetivos internos e os está perseguindo. A resposta? “Não temos ideia.” Pessoas sensatas podem sugerir que é irresponsável implantar em escala global um sistema que opera de acordo com princípios internos desconhecidos, mostra “faíscas de AGI” e pode ou não estar buscando seus próprios objetivos internos. No momento, existem razões técnicas para supor que o GPT-4 é limitado em sua capacidade de formar e executar planos complexos, mas dada a taxa de progresso, é difícil dizer que versões futuras não terão essa capacidade. E isso leva a uma das principais preocupações subjacentes à carta aberta: como manter o poder sobre entidades mais poderosas do que nós, para sempre?
OpenAI e Microsoft não podem ter as duas coisas. Eles não podem implantar sistemas exibindo “faíscas de AGI” e simultaneamente argumentar contra qualquer regulamentação, como o presidente da Microsoft, Brad Smith, fez em Davos no início deste ano. A ideia básica da moratória proposta na carta aberta é que nenhum sistema desse tipo deve ser lançado até que o desenvolvedor possa mostrar de forma convincente que não apresenta um risco indevido. Isso está exatamente de acordo com os princípios de IA da OCDE, aos quais o Reino Unido, os EUA e muitos outros governos aderiram: “Os sistemas de IA devem ser robustos, seguros e protegidos durante todo o seu ciclo de vida para que, em condições de uso normal, uso ou uso indevido previsível, ou outras condições adversas, eles funcionam adequadamente e não representam riscos de segurança excessivos”. Cabe ao desenvolvedor mostrar que seus sistemas atendem a esses critérios. Se isso não for possível, que assim seja.
Não imagino que receberei uma ligação amanhã do CEO da Microsoft, Satya Nadella, dizendo: “OK, desistimos, vamos parar”. De fato, em uma palestra recente em Berkeley, Bubeck sugeriu que não havia possibilidade de que todas as grandes empresas de tecnologia parassem, a menos que os governos interviessem. Portanto, é imperativo que os governos iniciem discussões sérias com especialistas, empresas de tecnologia e entre si. Não é do interesse de nenhum país que qualquer país desenvolva e libere sistemas de IA que não podemos controlar. Insistir em precauções sensatas não é anti-indústria. Chernobyl destruiu vidas, mas também dizimou a indústria nuclear global. Sou um pesquisador de IA. Não quero que meu campo de pesquisa seja destruído. A humanidade tem muito a ganhar com a IA, mas também tudo a perder.
.