News

Líderes proeminentes de IA alertam para o ‘risco de extinção’ de novas tecnologias

.

À medida que a inteligência artificial corre para a adoção diária, os especialistas se reúnem – novamente – para expressar preocupação com o poder potencial da tecnologia de prejudicar – ou até mesmo acabar – com a vida humana.

Dois meses depois que Elon Musk e muitos outros que trabalham na área assinaram uma carta em março pedindo uma pausa no desenvolvimento da IA, outro grupo composto por centenas de líderes empresariais e acadêmicos envolvidos em IA assinou uma nova declaração do Center for AI Safety que serve para “expressar preocupações sobre alguns dos riscos mais graves da IA ​​avançada”.

A nova declaração, com apenas uma frase, pretende “abrir a discussão” e destacar o crescente nível de preocupação entre os mais versados ​​na tecnologia, de acordo com o site da organização sem fins lucrativos. A declaração completa diz: “Mitigar o risco de extinção da IA ​​deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear”.

Signatários notáveis ​​do documento incluem Demis Hassabis, executivo-chefe do Google DeepMind, e Sam Altman, executivo-chefe da OpenAI.

Embora as proclamações de destruição iminente da inteligência artificial não sejam novas, desenvolvimentos recentes em IA generativa, como a ferramenta voltada ao público ChatGPT, desenvolvida pela OpenAI, se infiltraram na consciência pública.

O Center for AI Safety divide os riscos da IA ​​em oito categorias. Entre os perigos que prevê estão armas químicas projetadas por IA, campanhas de desinformação personalizadas, humanos se tornando completamente dependentes de máquinas e mentes sintéticas evoluindo além do ponto em que os humanos podem controlá-los.

Geoffrey Hinton, um pioneiro da IA ​​que assinou a nova declaração, deixou o Google no início deste ano, dizendo que queria ser livre para falar sobre suas preocupações sobre possíveis danos causados ​​por sistemas como aqueles que ele ajudou a projetar.

“É difícil ver como você pode impedir que os maus atores o usem para coisas ruins”, disse ele ao New York Times.

A carta de março não incluiu o apoio dos executivos dos principais players de IA e foi significativamente além da declaração mais recente, pedindo uma pausa voluntária de seis meses no desenvolvimento. Depois que a carta foi publicada, foi relatado que Musk estava apoiando seu próprio concorrente do ChatGPT, “TruthGPT”.

Escritor de tecnologia Alex Kantrowitz anotado no Twitter que o financiamento do Center for AI Safety era opaco, especulando que a campanha da mídia em torno do perigo da IA ​​pode estar ligada a pedidos de executivos de IA por mais regulamentação. No passado, as empresas de mídia social, como o Facebook, usavam um manual semelhante: peça regulamentação e sente-se à mesa quando as leis forem escritas.

O Center for AI Safety não respondeu imediatamente a um pedido de comentário sobre as fontes de seu financiamento.

Se a tecnologia realmente representa um grande risco está em debate, escreveu o colunista de tecnologia do Times, Brian Merchant, em março. Ele argumentou que, para alguém na posição de Altman, “apocalipses apocalípticos sobre o poder aterrorizante da IA ​​servem à sua estratégia de marketing”.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo