technology

TechScape: Por que o ‘jamboree de vaidade’ de Sunak sobre segurança de IA foi na verdade… um sucesso | Tecnologia

.

Fou Max Tegmark, a cúpula de inteligência artificial da semana passada em Bletchley Park foi um momento emocionante. O professor do MIT e pesquisador de IA esteve por trás de uma carta este ano pedindo uma pausa no desenvolvimento de sistemas avançados. Não aconteceu, mas foi uma contribuição crucial para o impulso político e académico que resultou na reunião de Bletchley.

“[The summit] na verdade me deixou mais otimista. Realmente superou minhas expectativas”, ele me disse. “Trabalho há cerca de 10 anos, na esperança de que um dia haja uma cimeira internacional sobre segurança da IA. Ver isso acontecer com meus próprios olhos – e surpreendentemente bem – foi muito comovente.”

Segurando uma nota de £ 50 com o rosto do decifrador de códigos de Bletchley, Alan Turing, Tegmark acrescentou que o gênio da computação – uma figura fundamental na história da IA ​​– estava provado que estava certo. “Concordo com Turing – o resultado padrão se nos apressarmos a construir máquinas que sejam muito mais inteligentes do que nós é que perderemos o controlo sobre o nosso futuro e provavelmente seremos eliminados.”

Mas Tegmark acredita que houve progresso em Bletchley. Aqui está um rápido resumo do que aconteceu.

A Declaração de Bletchley

A cimeira começou com um comunicado assinado por quase 30 governos, incluindo os EUA e a China, juntamente com a UE. Rishi Sunak descreveu a declaração como “bastante incrível”, tendo conseguido fazer com que superpotências concorrentes e países com opiniões variadas sobre o desenvolvimento da IA ​​concordassem com uma mensagem conjunta.

A declaração começa com uma referência ao facto de a IA proporcionar “enormes oportunidades globais” com potencial para “transformar e melhorar o bem-estar humano, a paz e a prosperidade” – mas a tecnologia precisa de ser concebida de uma forma que seja “centrada no ser humano, confiável e responsável”. . Há também uma ênfase na cooperação internacional, incluindo uma referência a uma “rede internacionalmente inclusiva de investigação científica” sobre segurança da IA.

Mas a secção mais digna de nota referia-se ao objectivo central da cimeira: garantir que a IA de fronteira – o termo para os sistemas mais avançados – não fique terrivelmente fora de controlo. Referindo-se ao potencial da IA ​​para causar catástrofes, afirmou: “Há potencial para danos graves, até mesmo catastróficos, deliberados ou não intencionais, decorrentes das capacidades mais significativas destes modelos de IA”.

Essa frase chamativa foi precedida por uma referência a danos mais imediatos, como ataques cibernéticos e desinformação. O debate sobre se a IA poderia acabar com a humanidade está em curso – há também a crença de que os receios são exagerados – mas parece haver um consenso de que a desinformação gerada pela IA é uma preocupação imediata que precisa de ser abordada.

A ambição de Sunak de tornar a cimeira um evento regular foi concretizada. A Coreia do Sul sediará um evento virtual em seis meses e a França sediará uma cúpula completa em 12 meses.

O Reino Unido pode não conseguir que todos os líderes mundiais olhem para a câmara ao mesmo tempo, mas fez com que concordassem na criação de uma estrutura de segurança de IA.
O Reino Unido pode não conseguir que os líderes mundiais olhem para a câmara, mas fez com que concordassem na criação de uma estrutura de segurança de IA. Fotografia: Leon Neal/Getty Images

Então, essas palavras cuidadosamente elaboradas levarão a mudanças regulatórias ou legislativas? Charlotte Walker-Osborn, sócia tecnológica do escritório de advocacia internacional Morrison Foerster, afirma que a declaração “provavelmente impulsionará ainda mais algum nível de consenso legislativo e governamental internacional em torno dos princípios fundamentais para a regulamentação da IA”. Por exemplo, ela cita princípios fundamentais como a transparência sobre quando e como a IA está sendo usada, informações sobre os dados usados ​​em sistemas de treinamento e um requisito de confiabilidade (abrangendo tudo, desde resultados tendenciosos até deepfakes).

No entanto, Walker-Osborn afirma que uma “abordagem verdadeiramente uniforme é improvável” devido às “diferentes abordagens à regulação e à governação em geral” entre os países. No entanto, a declaração é um marco, até porque reconhece que a IA não pode continuar a desenvolver-se sem uma supervisão mais forte.

Relatório sobre o estado da IA

Sunak anunciou um relatório sobre o “estado da ciência da IA” na cúpula, sendo o relatório inaugural presidido por Yoshua Bengio, um dos três chamados “padrinhos da IA”, que ganhou o prêmio ACM Turing – o equivalente em ciência da computação ao prêmio Nobel. – em 2018 por seu trabalho em inteligência artificial. O grupo que redigirá o relatório incluirá importantes acadêmicos de IA e será apoiado por um painel consultivo formado pelos países que participaram da cúpula (portanto, os EUA e a China estarão presentes).

Bengio foi signatário da carta da Tegmark e também assinou uma declaração em maio alertando que a mitigação do risco de extinção da IA ​​deveria ser uma prioridade global, juntamente com as pandemias e a guerra nuclear. Ele leva a sério o assunto da segurança da IA.

O primeiro-ministro do Reino Unido disse que a ideia foi inspirada no Painel Intergovernamental sobre Alterações Climáticas e foi apoiada pelo secretário-geral da ONU, António Guterres, que participaram da cúpula. No entanto, não será um projeto hospedado pela ONU e o instituto de segurança de IA apoiado pelo governo do Reino Unido hospedará o escritório de Bengio para a elaboração do relatório.

pular a promoção do boletim informativo

Testes de segurança internacionais

Um grupo de governos participantes na cimeira e grandes empresas de IA concordaram em colaborar nos testes dos seus modelos de IA antes e depois do seu lançamento público. Os 11 governos signatários incluíram a UE, os EUA, o Reino Unido, a Austrália, o Japão – mas não a China. As oito empresas incluíam Google, desenvolvedora do ChatGPT OpenAI, Microsoft, Amazon e Meta.

O Reino Unido já acordou parcerias entre o seu instituto de segurança de IA e o seu homólogo dos EUA (que foi anunciado antes da cimeira da semana passada) e também com Singapura, para colaborar em testes de segurança. Esta é uma configuração voluntária e existe algum cepticismo sobre o impacto que os anúncios de Bletchley terão se não forem sustentados por regulamentação. Sunak disse aos repórteres na semana passada que ainda não estava pronto para legislar e que são necessários mais testes de modelos avançados primeiro (embora tenha acrescentado que “requisitos vinculativos” provavelmente serão necessários em algum momento).

Significa que a ordem executiva da Casa Branca sobre a utilização da IA, emitida na mesma semana da cimeira, e a futura Lei da IA ​​da União Europeia estão mais à frente do Reino Unido na introdução de uma nova regulamentação vinculativa da tecnologia.

“Quando se trata de como os construtores de modelos se comportam… a iminente Lei de IA da UE e a ordem executiva do presidente Biden provavelmente terão um impacto maior”, diz Martha Bennett, analista principal da empresa Forrester.

Outros, no entanto, estão satisfeitos com a forma como Bletchley moldou o debate e reuniu pontos de vista díspares. A professora Dame Muffy Calder, vice-diretora e chefe da faculdade de ciências e engenharia da Universidade de Glasgow, estava preocupada que a cimeira se debruçasse demasiado sobre o risco existencial e não sobre “questões reais e atuais”. Esse medo, ela acredita, foi amenizado. “A cimeira e a declaração vão além dos riscos da ‘IA de fronteira’”, diz ela. “Por exemplo, questões como transparência, justiça, responsabilização, regulamentação, supervisão humana adequada e quadros jurídicos são todas mencionadas explicitamente na declaração. Assim como a cooperação. Isso é ótimo.”

Leia mais sobre esta história

Se você quiser ler a versão completa do boletim informativo, inscreva-se para receber o TechScape em sua caixa de entrada todas as terças-feiras

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo