.
Os líderes do OpenAI, desenvolvedor do ChatGPT, pediram a regulamentação de IAs “superinteligentes”, argumentando que é necessário um equivalente à Agência Internacional de Energia Atômica para proteger a humanidade do risco de criar acidentalmente algo com o poder de destruí-la.
Em uma breve nota publicada no site da empresa, os cofundadores Greg Brockman e Ilya Sutskever e o executivo-chefe, Sam Altman, pedem que um regulador internacional comece a trabalhar em como “inspecionar sistemas, exigir auditorias, testar a conformidade com os padrões de segurança , [and] colocar restrições nos graus de implantação e níveis de segurança” para reduzir o “risco existencial” que tais sistemas poderiam representar.
“É concebível que, nos próximos 10 anos, os sistemas de IA excedam o nível de habilidade especializada na maioria dos domínios e realizem tanta atividade produtiva quanto uma das maiores corporações de hoje”, escrevem eles. “Em termos de possíveis vantagens e desvantagens, a superinteligência será mais poderosa do que outras tecnologias com as quais a humanidade teve que lidar no passado. Podemos ter um futuro dramaticamente mais próspero; mas temos que administrar o risco para chegar lá. Dada a possibilidade de risco existencial, não podemos apenas ser reativos.”
No curto prazo, o trio pede “algum grau de coordenação” entre as empresas que trabalham na pesquisa de ponta da IA, a fim de garantir que o desenvolvimento de modelos cada vez mais poderosos se integre suavemente à sociedade, priorizando a segurança. Essa coordenação pode ocorrer por meio de um projeto liderado pelo governo, por exemplo, ou por meio de um acordo coletivo para limitar o crescimento da capacidade de IA.
Os pesquisadores alertam sobre os riscos potenciais da superinteligência há décadas, mas, à medida que o desenvolvimento da IA acelerou, esses riscos se tornaram mais concretos. O Center for AI Safety (CAIS), com sede nos EUA, que trabalha para “reduzir os riscos em escala social da inteligência artificial”, descreve oito categorias de risco “catastrófico” e “existencial” que o desenvolvimento da IA pode representar.
Enquanto alguns se preocupam com uma IA poderosa destruindo completamente a humanidade, acidentalmente ou de propósito, o CAIS descreve outros danos mais perniciosos. Um mundo onde os sistemas de IA recebem voluntariamente cada vez mais trabalho pode levar a humanidade a “perder a capacidade de se autogovernar e se tornar completamente dependente de máquinas”, descrito como “enfraquecimento”; e um pequeno grupo de pessoas controlando sistemas poderosos poderia “tornar a IA uma força centralizadora”, levando a um “aprisionamento de valor”, um eterno sistema de castas entre governados e governantes.
Os líderes da OpenAI dizem que esses riscos significam que “as pessoas ao redor do mundo devem decidir democraticamente sobre os limites e padrões dos sistemas de IA”, mas admitem que “ainda não sabemos como projetar tal mecanismo”. No entanto, eles dizem que o desenvolvimento contínuo de sistemas poderosos vale o risco.
após a promoção do boletim informativo
“Acreditamos que isso levará a um mundo muito melhor do que podemos imaginar hoje (já estamos vendo os primeiros exemplos disso em áreas como educação, trabalho criativo e produtividade pessoal)”, escrevem eles. Eles alertam que também pode ser perigoso pausar o desenvolvimento. “Como as vantagens são enormes, o custo para construí-lo diminui a cada ano, o número de atores que o constroem está aumentando rapidamente e é inerentemente parte do caminho tecnológico em que estamos. Interrompê-lo exigiria algo como um regime de vigilância global, e mesmo isso não tem garantia de funcionar. Então temos que acertar”.
.