Ciência e Tecnologia

Delegados do conselho de segurança da ONU pedem controles de IA para neutralizar potencial ameaça global

.

Bloqueio de segurança cibernética sobre uma pessoa digitando no computador

TU IS/Getty Images

É preciso haver esforços globais coletivos para governar a inteligência artificial (IA), onde é urgente um consenso comum sobre as proteções necessárias.

Em meio a apelos por diferentes medidas e iniciativas globais, a governança da IA ​​se mostrará complexa e exigirá uma abordagem universal, disse o secretário-geral das Nações Unidas (ONU), António Guterres. Os modelos de IA já estão amplamente disponíveis ao público e, ao contrário do material nuclear e dos agentes biológicos, suas ferramentas podem ser movidas sem deixar rastros, disse Guterres em seu discurso ao Conselho de Segurança da ONU.

Também: WormGPT: o que saber sobre o primo malicioso do ChatGPT

Membros do conselho se reuniram esta semana para sua primeira reunião formal sobre IA, onde os palestrantes incluíram o cofundador da Anthropic, Jack Clark, e o Instituto de Automação da Academia Chinesa de Ciências, Zeng Yi, que é professor e diretor do Centro Internacional de Pesquisa para Ética e Governança de IA.

Descrevendo a IA generativa como um “avanço radical” nas capacidades, Guterres disse que a velocidade e o alcance que a tecnologia ganhou foram “totalmente sem precedentes”, com o ChatGPT atingindo 100 milhões de usuários em apenas dois meses.

Mas, embora a IA tenha o potencial de alimentar significativamente o desenvolvimento global e realizar os direitos humanos, inclusive na área da saúde, ela também pode gerar preconceito e discriminação, disse ele. A tecnologia poderia permitir ainda mais a vigilância autoritária.

Ele instou o conselho a avaliar o impacto da IA ​​na paz e segurança, enfatizando que já havia preocupações humanitárias, éticas, legais e políticas.

Também: GPT-4 está ficando significativamente mais burro ao longo do tempo, de acordo com um estudo

“[AI] está sendo cada vez mais usado para identificar padrões de violência, monitorar cessar-fogo e muito mais, ajudando a fortalecer nossos esforços de manutenção da paz, mediação e humanitários”, disse Guterres. “Mas as ferramentas de IA também podem ser usadas por pessoas com intenções maliciosas. Os modelos de IA podem ajudar as pessoas a prejudicarem a si mesmas e umas às outras, em grande escala.”

Do jeito que está, a IA já foi usada para lançar ataques cibernéticos direcionados a infraestruturas críticas. Ele observou que aplicações militares e não militares de IA podem levar a sérias consequências para a paz e segurança globais.

Clark apoiou a necessidade de os governos globais se unirem, desenvolverem capacidade e tornarem o desenvolvimento de sistemas de IA um “empreendimento compartilhado”, em vez de um empreendimento liderado por um punhado de participantes competindo por uma fatia do mercado.

“Não podemos deixar o desenvolvimento da IA ​​apenas para atores do setor privado”, disse ele, observando que o desenvolvimento de modelos de IA como o próprio Claude da Anthropic, o ChatGPT da OpenAI e o Google Bard são guiados por interesses corporativos. Com as empresas do setor privado tendo acesso a sistemas sofisticados, grandes volumes de dados e fundos, elas provavelmente continuarão a definir o desenvolvimento de sistemas de IA, acrescentou.

Também: É assim que a IA generativa mudará a economia do show para melhor

Isso pode resultar em benefícios e ameaças devido ao potencial de uso indevido da IA ​​e sua imprevisibilidade. Ele explicou que a tecnologia poderia ser usada para entender melhor a biologia, bem como para construir armas biológicas.

E quando os sistemas de IA forem desenvolvidos e implementados, novos usos para eles poderão ser descobertos, não previstos por seus desenvolvedores. Os próprios sistemas também podem exibir um comportamento imprevisível ou caótico, disse ele.

“Portanto, devemos pensar com muito cuidado sobre como garantir que os desenvolvedores desses sistemas sejam responsáveis, para que construam e implantem sistemas seguros e confiáveis ​​que não comprometam a segurança global”, disse Clark.

O surgimento da IA ​​generativa agora pode aumentar ainda mais a desinformação e minar os fatos, trazendo consigo novas maneiras de manipular o comportamento humano e levando à instabilidade em grande escala, disse Guterres. Citando deepfakes, ele disse que essas ferramentas de IA podem criar sérios riscos de segurança se não forem verificadas.

Também: Os melhores chatbots de IA

Sistemas de IA com defeito também eram uma preocupação significativa, assim como era “profundamente alarmante” a interação entre IA e armas nucleares, biotecnologia, neurotecnologia e robótica, acrescentou.

“A IA generativa tem um enorme potencial para o bem e o mal em escala. Seus próprios criadores alertaram que riscos existenciais e potencialmente catastróficos muito maiores estão por vir”, disse ele. “Sem ação para lidar com esses riscos, estamos negligenciando nossas responsabilidades para com as gerações presentes e futuras”.

Nova entidade da ONU necessária para governar a IA

Guterres disse que apoiava a criação de uma entidade da ONU para facilitar os esforços coletivos no governo da IA, semelhante à Agência Internacional de Energia Atômica e ao Painel Intergovernamental sobre Mudanças Climáticas.

“A melhor abordagem abordaria os desafios existentes e, ao mesmo tempo, criaria a capacidade de monitorar e responder a riscos futuros”, disse ele. “Deve ser flexível e adaptável e considerar questões técnicas, sociais e legais. Deve integrar o setor privado, a sociedade civil, cientistas independentes e todos aqueles que impulsionam a inovação da IA”.

Também: IA e aplicativos avançados estão sobrecarregando as infraestruturas de tecnologia atuais

“A necessidade de padrões e abordagens globais torna as Nações Unidas o lugar ideal para que isso aconteça”, acrescentou.

O novo órgão da ONU deve ter como objetivo apoiar as nações na maximização dos benefícios da IA, mitigar os riscos e estabelecer mecanismos internacionais de monitoramento e governança. A nova entidade também teria que coletar os conhecimentos necessários, disponibilizá-los à comunidade internacional e apoiar os esforços de pesquisa e desenvolvimento de ferramentas de IA que impulsionam a sustentabilidade.

Guterres disse que estava montando um “conselho consultivo de alto nível para IA” para iniciar as coisas, com o objetivo de recomendar opções para a governança global de IA até o final do ano.

Ele acrescentou que um breve resumo de política sobre “uma nova agenda para a paz” também incluiria recomendações sobre a governança da IA ​​para os estados membros da ONU. Isso inclui recomendações para estratégias nacionais sobre o desenvolvimento e uso responsável da IA, bem como engajamento multilateral para desenvolver normas e princípios em torno de aplicações militares da IA.

Os estados membros também seriam solicitados a concordar com uma estrutura global para regular e impulsionar os mecanismos de supervisão para o uso de tecnologia baseada em dados, incluindo IA, para fins de contraterrorismo.

Também: A humanidade está realmente condenada? Considere o calcanhar de Aquiles da IA

As negociações para o resumo de políticas devem ser concluídas até 2026, pelo qual um acordo juridicamente vinculativo será estabelecido para proibir armas autônomas letais que operam sem supervisão humana, disse ele.

Clark também pediu à comunidade internacional que desenvolva maneiras de testar as capacidades, uso indevido e possíveis falhas de segurança dos sistemas. Ele disse que é certo que várias nações tenham se concentrado na avaliação de segurança em suas propostas de políticas de IA, incluindo China, UE e EUA.

Ele destacou ainda a necessidade de padrões e melhores práticas sobre como testar tais sistemas para áreas-chave, como discriminação e uso indevido, que atualmente não existem.

Zeng observou que os sistemas de IA atuais, incluindo IA generativa, eram ferramentas de processamento de informações que pareciam inteligentes, mas não tinham um entendimento real.

“É por isso que eles não são confiáveis ​​como agentes responsáveis ​​que podem ajudar os humanos a tomar decisões”, observou. Tarefas de diplomacia, por exemplo, não devem ser automatizadas. Em particular, a IA não deve ser aplicada a negociações estrangeiras entre diferentes nações, pois pode ampliar as limitações e fraquezas humanas para criar maiores riscos.

“A IA nunca deve fingir ser humana”, disse ele, enquanto exortava a necessidade de controle humano adequado e responsável dos sistemas de armas movidos a IA. “Os humanos devem sempre manter e ser responsáveis ​​pela tomada de decisão final sobre o uso de armas nucleares.”

Também: O ChatGPT e a nova IA estão causando estragos na segurança cibernética de maneiras emocionantes e assustadoras

As partes interessadas globais agora têm uma janela de oportunidade para se unir em discussões sobre as proteções necessárias para a IA, disse Omran Sharaf, ministro assistente de ciências e tecnologia avançadas dos Emirados Árabes Unidos.

Antes que “seja tarde demais”, ele instou os Estados membros a chegarem a um consenso sobre as regras necessárias, incluindo mecanismos para impedir que as ferramentas de IA enviem desinformação e desinformação que possam alimentar o extremismo e o conflito.

Semelhante a outras tecnologias digitais, a adoção da IA ​​deve ser guiada por leis internacionais que devem ser aplicadas no domínio cibernético, disse Sharaf. Ele observou, porém, que os regulamentos devem ser ágeis e flexíveis, para que não impeçam o avanço das tecnologias de IA.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo