.
Poderosos sistemas de inteligência artificial ameaçam a estabilidade social e as empresas de IA devem ser responsabilizadas pelos danos causados pelos seus produtos, alertou um grupo de especialistas seniores, incluindo dois “padrinhos” da tecnologia.
A intervenção de terça-feira foi feita enquanto políticos internacionais, empresas de tecnologia, académicos e figuras da sociedade civil se preparavam para se reunirem em Bletchley Park na próxima semana para uma cimeira sobre segurança da IA.
Um coautor das propostas políticas de 23 especialistas disse que era “totalmente imprudente” procurar sistemas de IA cada vez mais poderosos antes de compreender como torná-los seguros.
“É hora de levar a sério os sistemas avançados de IA”, disse Stuart Russell, professor de ciência da computação na Universidade da Califórnia, Berkeley. “Estes não são brinquedos. Aumentar suas capacidades antes de entendermos como torná-los seguros é totalmente imprudente.”
Ele acrescentou: “Existem mais regulamentações para lanchonetes do que para empresas de IA”.
O documento instou os governos a adotarem uma série de políticas, incluindo:
Os governos alocam um terço do seu financiamento de investigação e desenvolvimento em IA, e as empresas um terço dos seus recursos de I&D em IA, à utilização segura e ética dos sistemas.
Dando aos auditores independentes acesso aos laboratórios de IA.
Estabelecer um sistema de licenciamento para a construção de modelos de ponta.
As empresas de IA devem adotar medidas de segurança específicas caso sejam encontradas capacidades perigosas nos seus modelos.
Tornar as empresas de tecnologia responsáveis por danos previsíveis e evitáveis causados pelos seus sistemas de IA.
Outros coautores do documento incluem Geoffrey Hinton e Yoshua Bengio, dois dos três “padrinhos da IA”, que ganharam o prémio ACM Turing – o equivalente em ciência da computação ao prémio Nobel – em 2018 pelo seu trabalho em IA.
Ambos estão entre os 100 convidados convidados a participar da cúpula. Hinton renunciou ao Google este ano para alertar sobre o que chamou de “risco existencial” representado pela inteligência digital, enquanto Bengio, professor de ciência da computação na Universidade de Montreal, juntou-se a ele e a milhares de outros especialistas na assinatura de uma carta em março. pedindo uma moratória em experimentos gigantes de IA.
Outros coautores das propostas incluem o autor do best-seller Sapiens, Noah Yuval Harari, Daniel Kahneman, ganhador do Nobel de economia, e Sheila McIlraith, professora de IA na Universidade de Toronto, bem como o premiado cientista da computação chinês. Andy Yao.
após a promoção do boletim informativo
Os autores alertaram que os sistemas de IA desenvolvidos de forma descuidada ameaçam “amplificar a injustiça social, minar as nossas profissões, corroer a estabilidade social, permitir atividades criminosas ou terroristas em grande escala e enfraquecer a nossa compreensão partilhada da realidade que é fundamental para a sociedade”.
Alertaram que os atuais sistemas de IA já mostram sinais de capacidades preocupantes que apontam o caminho para o surgimento de sistemas autónomos capazes de planear, perseguir objetivos e “atuar no mundo”. O modelo de IA GPT-4 que alimenta a ferramenta ChatGPT, desenvolvida pela empresa norte-americana OpenAI, foi capaz de projetar e executar experimentos químicos, navegar na web e usar ferramentas de software, incluindo outros modelos de IA, disseram os especialistas.
“Se construirmos uma IA autónoma altamente avançada, corremos o risco de criar sistemas que perseguem autonomamente objetivos indesejáveis”, acrescentando que “talvez não consigamos mantê-los sob controlo”.
Outras recomendações políticas contidas no documento incluem: notificação obrigatória de incidentes em que os modelos mostram comportamento alarmante; implementar medidas para impedir que modelos perigosos se reproduzam; e dar aos reguladores o poder de interromper o desenvolvimento de modelos de IA que apresentem comportamentos perigosos.
A cimeira de segurança da próxima semana centrar-se-á nas ameaças existenciais representadas pela IA, como a ajuda ao desenvolvimento de novas armas biológicas e a fuga ao controlo humano. O governo do Reino Unido está a trabalhar com outros participantes numa declaração que deverá sublinhar a escala da ameaça da IA de fronteira – o termo para sistemas avançados. No entanto, embora a cimeira descreva os riscos da IA e as medidas para combater a ameaça, não se espera que estabeleça formalmente um órgão regulador global.
Alguns especialistas em IA argumentam que os temores sobre a ameaça existencial aos humanos são exagerados. O outro co-vencedor do prémio Turing de 2018, ao lado de Bengio e Hinton, Yann LeCun, agora cientista-chefe de IA da Meta de Mark Zuckerberg e que também participa na cimeira, disse ao Financial Times que a noção de que a IA poderia exterminar os humanos era “absurda”.
No entanto, os autores do documento político argumentaram que se sistemas avançados de IA autónomos surgissem agora, o mundo não saberia como torná-los seguros ou realizar testes de segurança neles. “Mesmo que o fizéssemos, a maioria dos países não dispõe de instituições para prevenir o uso indevido e defender práticas seguras”, acrescentaram.
.







