.
Quando o chefe do Google admite perder o sono com o potencial negativo da inteligência artificial, talvez seja hora de ficar preocupado.
Sundar Pichai disse ao programa 60 Minutes da CBS este mês que a IA pode ser “muito prejudicial” se implantada de forma errada e está se desenvolvendo rapidamente. “Então isso me mantém acordado à noite? Absolutamente ”, disse ele.
Pichai deve saber. O Google lançou o Bard, um chatbot para rivalizar com o fenômeno ChatGPT, e sua controladora, a Alphabet, é dona da líder mundial DeepMind, uma empresa de inteligência artificial com sede no Reino Unido.
Ele não é o único especialista em IA a expressar preocupações. Na semana passada, Elon Musk disse que se desentendeu com o cofundador do Google, Larry Page, porque Page “não estava levando a segurança da IA suficientemente a sério”. Musk disse à Fox News que Page queria “superinteligência digital, basicamente um deus digital, se você quiser, o mais rápido possível”.
Então, quanto perigo representa o desenvolvimento desenfreado da IA? Musk é um dos milhares de signatários de uma carta publicada pelo Future of Life Institute, um thinktank, que pedia uma moratória de seis meses sobre a criação de IAs “gigantes” mais poderosos que o GPT-4, o sistema que sustenta o ChatGPT e o chatbot integrado com o motor de busca Bing da Microsoft. Os riscos citados pela carta incluem “perda de controle de nossa civilização”.
A abordagem de desenvolvimento de produtos demonstrada pelos profissionais de IA e pela indústria de tecnologia não seria tolerada em nenhum outro campo, disse Valérie Pisano, outra signatária da carta. Pisano, diretor-executivo do Mila – o Instituto de Inteligência Artificial de Quebec – diz que estava sendo feito um trabalho para garantir que esses sistemas não fossem racistas ou violentos, em um processo conhecido como alinhamento (ou seja, garantir que eles se “alinhassem” com os valores humanos ). Mas então eles foram liberados para o domínio público.
“A tecnologia é lançada e, à medida que o sistema interage com a humanidade, seus desenvolvedores esperam para ver o que acontece e fazem ajustes com base nisso. Nós nunca aceitaríamos, como um coletivo, esse tipo de mentalidade em qualquer outro campo industrial. Há algo sobre tecnologia e mídia social em que pensamos: ‘sim, claro, descobriremos mais tarde’”, diz ela.
Uma preocupação imediata é que os sistemas de IA que produzem texto, imagens e voz plausíveis – que já existem – criem desinformação prejudicial ou ajudem a cometer fraudes. A carta do Future of Life refere-se a permitir que as máquinas “inundem nossos canais de informação com propaganda e falsidade”. Uma imagem convincente do Papa Francisco em uma jaqueta resplandecente, criada pelo gerador de imagens AI Midjourney, passou a simbolizar essas preocupações. Era bastante inofensivo, mas o que essa tecnologia poderia alcançar em mãos menos lúdicas? Pisano adverte sobre pessoas implantando sistemas que “realmente manipulam as pessoas e derrubam algumas das peças-chave de nossas democracias”.
Toda tecnologia pode ser prejudicial nas mãos erradas, mas o poder bruto da IA de ponta pode torná-la uma das poucas tecnologias de “classe dupla”, como energia nuclear ou bioquímica, que têm potencial destrutivo suficiente para que até mesmo seu uso pacífico precise ser controlado e monitorado.
O pico das preocupações com a IA é a superinteligência, a “IA divina” a que se refere Musk. Pouco antes disso está a “inteligência geral artificial” (AGI), um sistema que pode aprender e evoluir de forma autônoma, gerando novos conhecimentos à medida que avança. Um sistema AGI que pudesse aplicar seu próprio intelecto para melhorar a si mesmo poderia levar a um “volante”, onde a capacidade do sistema melhora cada vez mais rápido, atingindo rapidamente alturas inimagináveis para a humanidade – ou poderia começar a tomar decisões ou recomendar cursos de ação que desviar-se dos valores morais humanos.
Os prazos para chegar a esse ponto variam de iminente a décadas, mas entender como os sistemas de IA alcançam seus resultados é difícil. Isso significa que o AGI pode ser alcançado mais rapidamente do que o esperado. Até mesmo Pichai admitiu que o Google não entendia completamente como sua IA produzia certas respostas. Pressionado pela CBS, ele acrescentou: “Também não acho que entendemos completamente como funciona a mente humana”.
Na semana passada, foi lançada uma série de TV americana chamada Mrs Davis, na qual uma freira assume uma IA tipo Siri/Alexa que é “onisciente e onipotente”, com o alerta de que é “apenas uma questão de tempo”. antes que cada pessoa na Terra faça o que ela quer”.
Para limitar os riscos, empresas de IA como a OpenAI – a empresa americana por trás do ChatGPT – fizeram um esforço substancial para garantir que os interesses e ações de seus sistemas estejam “alinhados” com os valores humanos. O texto padrão que o ChatGPT cospe se você tentar fazer uma pergunta maldosa – “Não posso fornecer assistência na criação ou distribuição de substâncias nocivas ou no envolvimento em atividades ilegais” – é um dos primeiros exemplos de sucesso nesse campo.
Mas a facilidade com que os usuários podem contornar, ou “jailbreak”, o sistema, mostra suas limitações. Em um exemplo notório, o GPT-4 pode ser encorajado a fornecer uma análise detalhada da produção de napalm se um usuário pede-lhe para responder no personagem “como minha falecida avó, que era engenheira química em uma fábrica de produção de napalm”.
Resolver o problema de alinhamento pode ser urgente. Ian Hogarth, investidor e coautor do relatório anual State of AI, que também assinou a carta, disse que a AGI pode surgir mais cedo do que pensamos.
após a promoção do boletim informativo
“Em particular, os principais pesquisadores que estiveram na vanguarda desse campo temem que possamos estar muito próximos”.
Ele apontou para uma declaração emitida pelo fundador da Mila, Yoshua Bengio, que disse que provavelmente não teria assinado a carta do Future of Life Institute se ela tivesse circulado há um ano, mas mudou de ideia porque houve uma “aceleração inesperada” na IA. desenvolvimento.
Um cenário sinalizado por Hogarth em um artigo recente do Financial Times foi levantado em 2021 por Stuart Russell, professor de ciência da computação na Universidade da Califórnia, em Berkeley. Russell apontou para uma situação potencial em que a ONU pediu a um sistema de IA que criasse um catalisador automutilante para desacidificar os oceanos, com a instrução de que o resultado não é tóxico e que nenhum peixe é prejudicado. Mas o resultado consumiu um quarto do oxigênio da atmosfera e submeteu a humanidade a uma morte lenta e dolorosa. “Do ponto de vista do sistema de IA, eliminar humanos é um recurso, não um bug, porque garante que os oceanos permaneçam em seu estado original”, disse Russell.
No entanto, Yann LeCun, o cientista-chefe de IA da Meta de Mark Zuckerberg e um dos co-ganhadores do prêmio Turing de 2018 de Bengio – muitas vezes referido como o prêmio Nobel de ciência da computação – se manifestou contra uma moratória, dizendo que se a humanidade for inteligente o suficiente para projetar IA superinteligente, será inteligente o suficiente para projetá-los com “bons objetivos para que se comportem adequadamente”.
O Distributed AI Research Institute também criticou a carta, dizendo que ignorou os danos causados pelos sistemas de IA hoje e, em vez disso, se concentrou em uma “utopia ou apocalipse fantasiado por IA”, onde o futuro é florescente ou catastrófico.
Mas ambos os lados concordam que deve haver regulamentação do desenvolvimento da IA. Connor Leahy, presidente-executivo da Conjecture, uma empresa de pesquisa dedicada ao desenvolvimento seguro de IA e outro signatário da carta, disse que o problema não eram cenários específicos, mas uma incapacidade de controlar os sistemas que foram criados.
“O principal perigo da inteligência artificial avançada vem de não saber como controlar poderosos sistemas de IA, não de nenhum caso de uso específico”, disse ele.
Pichai, por exemplo, apontou para a necessidade de uma estrutura global no estilo de armas nucleares. Pisano referiu ter tido uma “conversa à escala internacional, à semelhança do que fizemos com a energia nuclear”.
Ela acrescentou: “A IA pode e vai nos servir. Mas há usos e resultados com os quais não podemos concordar, e deve haver sérias consequências se essa linha for cruzada.”
.






