.
Quatro especialistas em inteligência artificial expressaram preocupação depois que seu trabalho foi citado em uma carta aberta – co-assinada por Elon Musk – exigindo uma pausa urgente na pesquisa.
A carta, datada de 22 de março e com mais de 1.800 assinaturas até sexta-feira, pedia um disjuntor de seis meses no desenvolvimento de sistemas “mais poderosos” do que o novo GPT-4 da OpenAI, apoiado pela Microsoft, que pode manter uma conversa humana. , compor músicas e resumir documentos longos.
Desde que o predecessor do GPT-4, o ChatGPT, foi lançado no ano passado, empresas rivais correram para lançar produtos similares.
A carta aberta diz que os sistemas de IA com “inteligência humana competitiva” representam riscos profundos para a humanidade, citando 12 pesquisas de especialistas, incluindo acadêmicos universitários, bem como funcionários atuais e antigos da OpenAI, Google e sua subsidiária DeepMind.
Desde então, grupos da sociedade civil nos EUA e na UE pressionaram os legisladores a controlar a pesquisa da OpenAI. A OpenAI não respondeu imediatamente aos pedidos de comentários.
Os críticos acusaram o Future of Life Institute (FLI), a organização por trás da carta que é financiada principalmente pela Musk Foundation, de priorizar cenários apocalípticos imaginários sobre preocupações mais imediatas sobre IA, como preconceitos racistas ou sexistas sendo programados nas máquinas.
Entre as pesquisas citadas estava “On the Dangers of Stochastic Parrots”, um conhecido artigo de autoria de Margaret Mitchell, que anteriormente supervisionou a pesquisa ética de IA no Google.
Mitchell, agora cientista-chefe de ética da empresa de IA Hugging Face, criticou a carta, dizendo à Reuters que não estava claro o que contava como “mais poderoso que o GPT4”.
“Ao tratar muitas ideias questionáveis como um dado adquirido, a carta afirma um conjunto de prioridades e uma narrativa sobre IA que beneficia os apoiadores da FLI”, disse ela. “Ignorar danos ativos agora é um privilégio que alguns de nós não têm.”
Seus co-autores Timnit Gebru e Emily M. Bender criticaram a carta no Twitter, com o último classificando algumas de suas reivindicações como “desequilibradas”.
O presidente da FLI, Max Tegmark, disse à Reuters que a campanha não foi uma tentativa de impedir a vantagem corporativa da OpenAI.
“É muito hilário. Já vi pessoas dizerem: ‘Elon Musk está tentando desacelerar a concorrência’”, disse ele, acrescentando que Musk não teve nenhum papel na redação da carta. “Não se trata de uma empresa.”
Riscos Agora
Shiri Dori-Hacohen, professora assistente da Universidade de Connecticut, também questionou o fato de seu trabalho ser mencionado na carta. No ano passado, ela foi coautora de um trabalho de pesquisa argumentando que o uso generalizado de IA já representava sérios riscos.
Sua pesquisa argumentou que o uso atual de sistemas de IA pode influenciar a tomada de decisões em relação às mudanças climáticas, guerra nuclear e outras ameaças existenciais.
Ela disse à Reuters: “A IA não precisa atingir a inteligência de nível humano para exacerbar esses riscos”.
“Existem riscos inexistentes que são muito, muito importantes, mas não recebem o mesmo tipo de atenção em nível de Hollywood.”
Solicitado a comentar as críticas, Tegmark, da FLI, disse que os riscos de curto e longo prazo da IA devem ser levados a sério.
“Se citarmos alguém, isso significa apenas que afirmamos que ele está endossando a frase. Não significa que ele está endossando a carta ou que endossamos tudo o que ele pensa”, disse ele à Reuters.
Dan Hendrycks, diretor do Center for AI Safety, com sede na Califórnia, que também foi citado na carta, manteve seu conteúdo, dizendo à Reuters que era sensato considerar eventos de cisne negro – aqueles que parecem improváveis, mas teriam consequências devastadoras.
A carta aberta também alertou que ferramentas generativas de IA poderiam ser usadas para inundar a internet com “propaganda e falsidade”.
Dori-Hacohen disse que foi “muito rico” para Musk ter assinado, citando um aumento relatado de desinformação no Twitter após a aquisição da plataforma, documentado pelo grupo da sociedade civil Common Cause e outros.
O Twitter lançará em breve uma nova estrutura de taxas para acesso aos seus dados de pesquisa, potencialmente dificultando a pesquisa sobre o assunto.
“Isso teve um impacto direto no trabalho do meu laboratório e no trabalho de outros que estudam a desinformação”, disse Dori-Hacohen. “Estamos operando com uma mão amarrada nas costas.”
Musk e o Twitter não responderam imediatamente aos pedidos de comentários.
© Thomson Reuters 2023
.