.
Concentrar-se em cenários apocalípticos na inteligência artificial é uma distracção que minimiza os riscos imediatos, como a geração de desinformação em grande escala, de acordo com uma figura sénior da indústria que participou na cimeira de segurança da IA desta semana.
Aidan Gomez, coautor de um artigo de pesquisa que ajudou a criar a tecnologia por trás dos chatbots, disse que os riscos de longo prazo, como as ameaças existenciais à humanidade causadas pela IA, deveriam ser “estudados e perseguidos”, mas que poderiam desviar os políticos de lidar com o potencial imediato. prejudica.
“Acho que em termos de risco existencial e políticas públicas, não é uma conversa produtiva”, disse ele. “No que diz respeito às políticas públicas e onde deveríamos focar o sector público – ou tentar mitigar o risco para a população civil – penso que constitui uma distracção, longe de riscos que são muito mais tangíveis e imediatos.”
Gomez participará da cúpula de dois dias, que começa na quarta-feira, como presidente-executivo da Cohere, uma empresa norte-americana que fabrica ferramentas de IA para empresas, incluindo chatbots. Em 2017, aos 20 anos, Gomez fez parte de uma equipe de pesquisadores do Google que criou o Transformer, uma tecnologia-chave por trás dos grandes modelos de linguagem que alimentam ferramentas de IA, como chatbots.
Gomez disse que a IA – o termo para sistemas informáticos que podem executar tarefas normalmente associadas a seres inteligentes – já era amplamente utilizada e é nessas aplicações que a cimeira deveria concentrar-se. Chatbots como ChatGPT e geradores de imagens como Midjourney surpreenderam o público com sua capacidade de produzir textos e imagens plausíveis a partir de simples instruções de texto.
“Essa tecnologia já está presente em um bilhão de produtos de usuários, como no Google e outros. Isso apresenta uma série de novos riscos para discutir, nenhum dos quais é existencial, nenhum dos quais é um cenário apocalíptico”, disse Gomez. “Devíamos concentrar-nos diretamente nas peças que estão prestes a impactar as pessoas ou que estão a impactar ativamente as pessoas, em oposição talvez à discussão mais académica e teórica sobre o futuro a longo prazo.”
Gomez disse que a desinformação – a disseminação de informações enganosas ou incorretas online – era a sua principal preocupação. “A desinformação é algo que está em minha mente”, disse ele. “Esses [AI] os modelos podem criar meios de comunicação extremamente convincentes, muito convincentes e virtualmente indistinguíveis de textos, imagens ou meios de comunicação criados pelo homem. E isso é algo que precisamos resolver com urgência. Precisamos descobrir como vamos dar ao público a capacidade de distinguir entre esses diferentes tipos de mídia.”

O dia de abertura da cimeira contará com discussões sobre uma série de questões de IA, incluindo preocupações relacionadas com a desinformação, como a perturbação eleitoral e a erosão da confiança social. O segundo dia, que contará com um grupo menor de países, especialistas e executivos de tecnologia reunidos por Rishi Sunak, discutirá quais medidas concretas podem ser tomadas para enfrentar os riscos da IA. Kamala Harris, vice-presidente dos EUA, estará entre os participantes.
Gomez, que descreveu a cimeira como “realmente importante”, disse que já era “muito plausível” que um exército de bots – software que executa tarefas repetitivas, como publicações nas redes sociais – pudesse espalhar desinformação gerada pela IA. “Se você puder fazer isso, será uma ameaça real à democracia e ao debate público”, disse ele.
Numa série de documentos que descrevem os riscos da IA na semana passada, que incluíam a desinformação gerada pela IA e a perturbação do mercado de trabalho, o governo disse que não podia excluir a possibilidade de o desenvolvimento da IA atingir um ponto em que os sistemas ameaçassem a humanidade.
Um documento de risco publicado na semana passada declarou: “Dada a incerteza significativa na previsão dos desenvolvimentos da IA, não há provas suficientes para descartar que os sistemas Frontier AI altamente capazes, se desalinhados ou controlados inadequadamente, possam representar uma ameaça existencial”.
O documento acrescenta que muitos especialistas consideram esse risco muito baixo e que envolveria uma série de cenários, incluindo um sistema avançado que ganhasse controlo sobre armas ou mercados financeiros. As preocupações sobre uma ameaça existencial da IA centram-se na perspectiva da chamada inteligência artificial geral – um termo para um sistema de IA capaz de realizar múltiplas tarefas a um nível de inteligência humano ou acima do humano – que poderia, em teoria, replicar-se, escapar controle humano e tomar decisões que vão contra os interesses humanos.
Esses receios levaram à publicação de uma carta aberta em março, assinada por mais de 30 mil profissionais e especialistas em tecnologia, incluindo Elon Musk, apelando a uma pausa de seis meses nas experiências gigantes de IA.
Dois dos três “padrinhos” modernos da IA, Geoffrey Hinton e Yoshua Bengio, assinaram uma nova declaração em Maio alertando que evitar o risco de extinção da IA deve ser tratado tão seriamente como a ameaça de pandemias e guerra nuclear. No entanto, Yann LeCun, o seu colega “padrinho” e co-vencedor do prémio ACM Turing – considerado o prémio Nobel da computação – descreveu os receios de que a IA possa exterminar a humanidade como “absurdos”.
LeCun, cientista-chefe de IA da Meta, empresa controladora do Facebook, disse ao Tempos Financeiros este mês que seriam necessários vários “avanços conceptuais” antes que a IA pudesse atingir a inteligência de nível humano – um ponto em que um sistema poderia escapar ao controlo humano. LeCun acrescentou: “A inteligência não tem nada a ver com o desejo de dominar. Isso nem é verdade para os humanos.”
.







