technology

Nº 10 reconhece risco ‘existencial’ de IA pela primeira vez | Inteligência Artificial (IA)

.

O risco “existencial” da inteligência artificial foi reconhecido pelo número 10 pela primeira vez, depois que o primeiro-ministro se reuniu com os chefes dos principais grupos de pesquisa de IA do mundo para discutir segurança e regulamentação.

Rishi Sunak e Chloe Smith, secretária de estado para ciência, inovação e tecnologia, reuniram-se com os executivos-chefes do Google DeepMind, OpenAI e Anthropic AI na noite de quarta-feira e discutiram a melhor forma de moderar o desenvolvimento da tecnologia para limitar os riscos de catástrofe.

“Eles discutiram medidas de segurança, ações voluntárias que os laboratórios estão considerando para gerenciar os riscos e os possíveis caminhos para a colaboração internacional na segurança e regulamentação da IA”, disseram os participantes em um comunicado conjunto.

“Os líderes do laboratório concordaram em trabalhar com o governo do Reino Unido para garantir que nossa abordagem responda à velocidade das inovações nessa tecnologia, tanto no Reino Unido quanto em todo o mundo.

“O primeiro-ministro e os CEOs discutiram os riscos da tecnologia, variando de desinformação e segurança nacional a ameaças existenciais…

É a primeira vez que Sunak reconhece a potencial ameaça “existencial” de desenvolver uma IA “superinteligente” sem as devidas salvaguardas, um risco que contrasta com a abordagem geralmente positiva do governo do Reino Unido para o desenvolvimento da IA.

Sunak se reunirá com Sundar Pichai, presidente-executivo do Google, na sexta-feira, enquanto ele continua a aprimorar a abordagem do governo para regulamentar o setor. Pichai escreveu no Financial Times esta semana: “Ainda acredito que a IA é importante demais para não ser regulamentada e importante demais para não ser bem regulamentada”.

O executivo-chefe da OpenAI, Sam Altman, publicou nesta semana um apelo aos líderes mundiais para estabelecer um órgão internacional semelhante à Agência Internacional de Energia Atômica, que regula as armas atômicas, a fim de limitar a velocidade com que essa IA é desenvolvida.

Altman, que está em turnê pela Europa encontrando usuários e desenvolvedores da plataforma ChatGPT, bem como formuladores de políticas, disse em um evento em Londres que, embora ele não queira que as regras de curto prazo sejam muito restritivas, “se alguém decifrar o código e construir uma superinteligência … gostaria de ter certeza de que tratamos isso pelo menos com a mesma seriedade com que tratamos, digamos, o material nuclear”.

pule a promoção do boletim informativo

A abordagem do Reino Unido à regulamentação da IA ​​foi criticada por alguns setores por sua abordagem leve. Em um evento do Guardian Live no início desta semana, Stuart Russell, professor de ciência da computação na Universidade da Califórnia em Berkeley, criticou o Reino Unido por confiar em uma mistura de reguladores existentes, em vez de descobrir a melhor forma de regular o campo para garantir tudo, desde trabalho efeitos de mercado para o risco existencial foram minimizados.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo