technology

Líderes da OpenAI pedem regulamentação para evitar que a IA destrua a humanidade | Inteligência Artificial (IA)

.

Os líderes do OpenAI, desenvolvedor do ChatGPT, pediram a regulamentação de IAs “superinteligentes”, argumentando que é necessário um equivalente à Agência Internacional de Energia Atômica para proteger a humanidade do risco de criar acidentalmente algo com o poder de destruí-la.

Em uma breve nota publicada no site da empresa, os cofundadores Greg Brockman e Ilya Sutskever e o executivo-chefe, Sam Altman, pedem que um regulador internacional comece a trabalhar em como “inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança , [and] colocar restrições nos graus de implantação e níveis de segurança” para reduzir o “risco existencial” que tais sistemas poderiam representar.

“É concebível que, nos próximos 10 anos, os sistemas de IA excedam o nível de habilidade especializada na maioria dos domínios e realizem tanta atividade produtiva quanto uma das maiores corporações de hoje”, escrevem eles. “Em termos de possíveis vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado. Podemos ter um futuro dramaticamente mais próspero; mas temos que administrar o risco para chegar lá. Dada a possibilidade de risco existencial, não podemos apenas ser reativos.”

No curto prazo, o trio pede “algum grau de coordenação” entre as empresas que trabalham na pesquisa de ponta da IA, a fim de garantir que o desenvolvimento de modelos cada vez mais poderosos se integre suavemente à sociedade, priorizando a segurança. Essa coordenação pode ocorrer por meio de um projeto liderado pelo governo, por exemplo, ou por meio de um acordo coletivo para limitar o crescimento da capacidade de IA.

Os pesquisadores alertam sobre os riscos potenciais da superinteligência há décadas, mas, à medida que o desenvolvimento da IA ​​acelerou, esses riscos se tornaram mais concretos. O Center for AI Safety (CAIS), com sede nos EUA, que trabalha para “reduzir os riscos em escala social da inteligência artificial”, descreve oito categorias de risco “catastrófico” e “existencial” que o desenvolvimento da IA ​​pode representar.

Enquanto alguns se preocupam com uma IA poderosa destruindo completamente a humanidade, acidentalmente ou de propósito, o CAIS descreve outros danos mais perniciosos. Um mundo onde os sistemas de IA recebem voluntariamente cada vez mais trabalho pode levar a humanidade a “perder a capacidade de se autogovernar e se tornar completamente dependente de máquinas”, descrito como “enfraquecimento”; e um pequeno grupo de pessoas controlando sistemas poderosos poderia “tornar a IA uma força centralizadora”, levando a um “aprisionamento de valor”, um eterno sistema de castas entre governados e governantes.

Os líderes da OpenAI dizem que esses riscos significam que “as pessoas ao redor do mundo devem decidir democraticamente sobre os limites e padrões dos sistemas de IA”, mas admitem que “ainda não sabemos como projetar tal mecanismo”. No entanto, eles dizem que o desenvolvimento contínuo de sistemas poderosos vale o risco.

pule a promoção do boletim informativo

“Acreditamos que isso levará a um mundo muito melhor do que podemos imaginar hoje (já estamos vendo os primeiros exemplos disso em áreas como educação, trabalho criativo e produtividade pessoal)”, escrevem eles. Eles alertam que também pode ser perigoso pausar o desenvolvimento. “Como as vantagens são enormes, o custo para construí-lo diminui a cada ano, o número de atores que o constroem está aumentando rapidamente e é inerentemente parte do caminho tecnológico em que estamos. Interrompê-lo exigiria algo como um regime de vigilância global, e mesmo isso não tem garantia de funcionar. Então temos que acertar”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo