.
A humanidade está em uma encruzilhada que pode ser resumida como IA para o bem v IA que deu errado, de acordo com um importante especialista em inteligência artificial.
“Vejo dois futuros aqui”, disse o autor, professor Gary Marcus, na cúpula global AI for Good da ONU na sexta-feira.
Na versão mais otimista, a IA revoluciona a medicina, ajuda a enfrentar a emergência climática e oferece cuidados compassivos aos idosos. Mas podemos estar à beira de uma alternativa mais sombria, com crimes cibernéticos fora de controle, conflitos devastadores e uma queda na anarquia. “Não estou dizendo o que está por vir; Estou dizendo que precisamos descobrir o que estamos fazendo”, disse Marcus à cúpula.
Durante o evento de uma semana, ostensivamente focado no positivo, os delegados ouviram exemplos abrangentes de aproveitamento da IA para o benefício da humanidade. Um elenco de robôs embaixadores, cujos olhares errantes podiam parecer enervantes cara a cara, ofereceu novas visões de como os idosos poderiam manter a independência por mais tempo ou como as crianças autistas poderiam aprender sobre o mundo sem se sentirem sobrecarregadas.
A diretora de operações do Google DeepMind, Lila Ibrahim, descreveu como o avanço da dobragem de proteínas da empresa pode transformar a medicina. Werner Vogels, diretor de tecnologia da Amazon, descreveu um sistema de visão de máquina para rastrear 100.000 salmões mantidos juntos em um cercado para detectar doenças. A piscicultura baseada em IA pode não ser a imagem mais emocionante, ele reconheceu, mas pode reduzir radicalmente a pegada de carbono da produção global de alimentos. No que poderia ser um aceno para aqueles que veem a “IA para o bem” principalmente como um exercício de relações públicas, Vogels observou que as tecnologias de ponta “têm o potencial não apenas de fazer IA para o bem, mas de fazer IA para obter lucro ao mesmo tempo. ”.
Nos bastidores, porém, as mesas redondas entre diplomatas e delegados convidados se concentraram menos na “boa IA” e mais na questão premente de como evitar o mal.
“Não é suficiente se o Google está fazendo um monte de IA para sempre. Eles também não devem ser maus”, disse a professora Joanna Bryson, especialista em ética e tecnologia da Hertie School em Berlim, que não estava presente na conferência. “O bem e o mal podem ser opostos, mas fazer o bem e fazer o mal não são opostos. Você pode fazer as duas coisas.”
Isso é um risco, dizem alguns, mesmo para aplicações aparentemente positivas de IA. Um robô, encarregado de buscar um café, digamos, pode derrubar tudo e todos em seu caminho para atingir esse objetivo estreito. O ChatGPT, embora surpreendentemente adepto da linguagem, parece inventar coisas o tempo todo.
“Se os humanos se comportassem dessa maneira, você diria que eles têm uma espécie de psicose”, disse o professor Stuart Russell, pioneiro da IA na Universidade da Califórnia, em Berkeley. Mas ninguém entende completamente o funcionamento interno do ChatGPT e não pode ser programado prontamente para dizer a verdade. “Não há onde colocar essa regra”, disse Russell.
“Sabemos como fazer uma IA que as pessoas queiram, mas não sabemos como fazer uma IA em que as pessoas possam confiar”, disse Marcus.
A questão de como imbuir a IA com valores humanos às vezes é chamada de “o problema do alinhamento”, embora não seja um quebra-cabeça computacional bem definido que possa ser resolvido e implementado na lei. Isso significa que a questão de como regular a IA é uma questão científica enorme e aberta – além de interesses comerciais, sociais e políticos significativos que precisam ser navegados.
Cientistas e algumas empresas de tecnologia estão analisando essas questões com seriedade – mas, em alguns casos, é um jogo de atualização com tecnologias que já foram implantadas. Marcus usou sua apresentação para lançar um Centro para o Avanço da IA Confiável, que ele espera que funcione como uma agência internacional filantrópica financiada pelo Cern sobre o tema.
após a promoção do boletim informativo
A professora Maja Mataric, da University of Southern California, descreveu uma nova pesquisa (publicada no Arxiv) analisando as personalidades de modelos de linguagem ampla – e como eles podem ser moldados para serem pró-sociais para “mantê-los seguros”. “Eu não quero uma personalidade esquisita,” ela disse. “Sistemas bem projetados podem ser bons para a humanidade.”
Outros gostariam de ver um foco mais rígido na IA que já está em uso generalizado, em vez de cenários distantes de inteligência sobre-humana, que podem nunca se materializar.
“Discriminação em massa, o problema da caixa preta, violações de proteção de dados, desemprego em larga escala e danos ambientais – esses são os riscos existenciais reais”, disse a professora Sandra Wachter, da Universidade de Oxford, uma das palestrantes do encontro. “Precisamos nos concentrar nessas questões agora e não nos distrair com riscos hipotéticos. Isso é um desserviço para as pessoas que já sofrem com o impacto da IA.”
De qualquer forma, há um consenso crescente, entre empresas de tecnologia e governos, de que a governança é necessária – e rapidamente. “Isso deve ser feito bem rápido… dentro de meio ano, um ano”, disse o Dr. Reinhard Scholl, da União Internacional de Telecomunicações da ONU e co-fundador do AI for Good Summit. “As pessoas concordam que, se você tiver que esperar alguns anos, isso não seria bom.”
.