.
Uma carta co-assinada por Elon Musk e milhares de outros exigindo uma pausa na pesquisa de inteligência artificial criou uma tempestade de fogo, depois que os pesquisadores citados na carta condenaram o uso de seu trabalho, alguns signatários foram revelados como falsos e outros desistiram. em seu apoio.
Em 22 de março, mais de 1.800 signatários – incluindo Musk, o cientista cognitivo Gary Marcus e o cofundador da Apple, Steve Wozniak – pediram uma pausa de seis meses no desenvolvimento de sistemas “mais poderosos” do que o GPT-4. Engenheiros da Amazon, DeepMind, Google, Meta e Microsoft também deram seu apoio.
Desenvolvido pela OpenAI, uma empresa co-fundada por Musk e agora apoiada pela Microsoft, o GPT-4 desenvolveu a capacidade de manter uma conversa humana, compor músicas e resumir documentos longos. Tais sistemas de IA com “inteligência humana competitiva” representam riscos profundos para a humanidade, afirmou a carta.
“Laboratórios de IA e especialistas independentes devem usar essa pausa para desenvolver e implementar em conjunto um conjunto de protocolos de segurança compartilhados para design e desenvolvimento avançados de IA que sejam rigorosamente auditados e supervisionados por especialistas externos independentes”, disse a carta.
O instituto Future of Life, o thinktank que coordenou o esforço, citou 12 pesquisas de especialistas, incluindo acadêmicos universitários, bem como funcionários atuais e antigos da OpenAI, Google e sua subsidiária DeepMind. Mas quatro especialistas citados na carta expressaram preocupação de que sua pesquisa tenha sido usada para fazer tais afirmações.
Quando lançada inicialmente, a carta carecia de protocolos de verificação para assinatura e acumulou assinaturas de pessoas que não a assinaram de fato, Incluindo Xi Jinping e o cientista-chefe de IA da Meta, Yann LeCun, que esclarecido no Twitter, ele não apoiou.
Os críticos acusaram o Future of Life Institute (FLI), que é financiado principalmente pela Fundação Musk, de priorizar cenários apocalípticos imaginados em detrimento de preocupações mais imediatas sobre IA – como preconceitos racistas ou sexistas sendo programados nas máquinas.
Entre as pesquisas citadas estava “On the Dangers of Stochastic Parrots”, um conhecido artigo de autoria de Margaret Mitchell, que anteriormente supervisionou a pesquisa ética de IA no Google. Mitchell, agora cientista-chefe de ética da empresa de IA Hugging Face, criticou a carta, dizendo à Reuters que não estava claro o que contava como “mais poderoso que o GPT4”.
“Ao tratar muitas ideias questionáveis como um dado adquirido, a carta afirma um conjunto de prioridades e uma narrativa sobre IA que beneficia os apoiadores da FLI”, disse ela. “Ignorar danos ativos agora é um privilégio que alguns de nós não têm.”
Seus co-autores Timnit Gebru e Emily M Bender criticaram a carta no Twitter, com o último marcando algumas de suas reivindicações como “desequilibradas”. Shiri Dori-Hacohen, professora assistente da Universidade de Connecticut, também questionou o fato de seu trabalho ser mencionado na carta. No ano passado, ela foi coautora de um trabalho de pesquisa argumentando que o uso generalizado de IA já representava sérios riscos.
Sua pesquisa argumentou que o uso atual de sistemas de IA pode influenciar a tomada de decisões em relação às mudanças climáticas, guerra nuclear e outras ameaças existenciais.
Ela disse à Reuters: “A IA não precisa atingir a inteligência em nível humano para exacerbar esses riscos”.
“Existem riscos inexistentes que são muito, muito importantes, mas não recebem o mesmo tipo de atenção do nível de Hollywood.”
Solicitado a comentar as críticas, o presidente da FLI, Max Tegmark, disse que os riscos de curto e longo prazo da IA devem ser levados a sério. “Se citarmos alguém, significa apenas que afirmamos que essa pessoa está endossando aquela frase. Isso não significa que eles estão endossando a carta ou que endossamos tudo o que eles pensam”, disse ele à Reuters.
.