.

À medida que a inteligência artificial corre para a adoção diária, os especialistas se reúnem – novamente – para expressar preocupação com o poder potencial da tecnologia de prejudicar – ou até mesmo acabar – com a vida humana.
Dois meses depois que Elon Musk e muitos outros que trabalham na área assinaram uma carta em março pedindo uma pausa no desenvolvimento da IA, outro grupo composto por centenas de líderes empresariais e acadêmicos envolvidos em IA assinou uma nova declaração do Center for AI Safety que serve para “expressar preocupações sobre alguns dos riscos mais graves da IA avançada”.
A nova declaração, com apenas uma frase, pretende “abrir a discussão” e destacar o crescente nível de preocupação entre os mais versados na tecnologia, de acordo com o site da organização sem fins lucrativos. A declaração completa diz: “Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.
Signatários notáveis do documento incluem Demis Hassabis, executivo-chefe do Google DeepMind, e Sam Altman, executivo-chefe da OpenAI.
Embora as proclamações de destruição iminente da inteligência artificial não sejam novas, desenvolvimentos recentes em IA generativa, como a ferramenta voltada ao público ChatGPT, desenvolvida pela OpenAI, se infiltraram na consciência pública.
O Center for AI Safety divide os riscos da IA em oito categorias. Entre os perigos que prevê estão armas químicas projetadas por IA, campanhas de desinformação personalizadas, humanos se tornando completamente dependentes de máquinas e mentes sintéticas evoluindo além do ponto em que os humanos podem controlá-los.
Geoffrey Hinton, um pioneiro da IA que assinou a nova declaração, deixou o Google no início deste ano, dizendo que queria ser livre para falar sobre suas preocupações sobre possíveis danos causados por sistemas como aqueles que ele ajudou a projetar.
“É difícil ver como você pode impedir que os maus atores o usem para coisas ruins”, disse ele ao New York Times.
A carta de março não incluiu o apoio dos executivos dos principais players de IA e foi significativamente além da declaração mais recente, pedindo uma pausa voluntária de seis meses no desenvolvimento. Depois que a carta foi publicada, foi relatado que Musk estava apoiando seu próprio concorrente do ChatGPT, “TruthGPT”.
Escritor de tecnologia Alex Kantrowitz anotado no Twitter que o financiamento do Center for AI Safety era opaco, especulando que a campanha da mídia em torno do perigo da IA pode estar ligada a pedidos de executivos de IA por mais regulamentação. No passado, as empresas de mídia social, como o Facebook, usavam um manual semelhante: peça regulamentação e sente-se à mesa quando as leis forem escritas.
O Center for AI Safety não respondeu imediatamente a um pedido de comentário sobre as fontes de seu financiamento.
Se a tecnologia realmente representa um grande risco está em debate, escreveu o colunista de tecnologia do Times, Brian Merchant, em março. Ele argumentou que, para alguém na posição de Altman, “apocalipses apocalípticos sobre o poder aterrorizante da IA servem à sua estratégia de marketing”.
.







