.
Os líderes globais devem trabalhar para reduzir “o risco de extinção” da tecnologia de inteligência artificial, alertou um grupo de chefes e especialistas do setor na terça-feira.
Uma declaração de uma linha assinada por dezenas de especialistas, incluindo Sam Altman, cuja empresa OpenAI criou o bot ChatGPT, disse que enfrentar os riscos da IA deve ser “uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.
O ChatGPT ganhou destaque no final do ano passado, demonstrando a capacidade de gerar ensaios, poemas e conversas a partir do mais breve dos prompts.
O grande sucesso do programa desencadeou uma corrida do ouro com bilhões de dólares em investimentos no campo, mas críticos e pessoas de dentro soaram o alarme.
Preocupações comuns incluem a possibilidade de que os chatbots possam inundar a web com desinformação, que algoritmos tendenciosos produzam material racista ou que a automação baseada em IA possa devastar setores inteiros.
máquinas superinteligentes
A declaração mais recente, alojada no site da organização sem fins lucrativos Center for AI Safety, com sede nos EUA, não deu detalhes sobre a potencial ameaça existencial representada pela IA.
O centro disse que a “declaração sucinta” pretendia abrir uma discussão sobre os perigos da tecnologia.
Vários dos signatários, incluindo Geoffrey Hinton, que criou parte da tecnologia subjacente aos sistemas de IA e é conhecido como um dos padrinhos da indústria, fizeram advertências semelhantes no passado.
Sua maior preocupação tem sido o surgimento da chamada inteligência geral artificial (AGI) – um conceito vagamente definido para um momento em que as máquinas se tornam capazes de realizar funções de amplo alcance e podem desenvolver sua própria programação.
O medo é que os humanos não tenham mais controle sobre máquinas superinteligentes, o que especialistas alertam que pode ter consequências desastrosas para a espécie e para o planeta.
Dezenas de acadêmicos e especialistas de empresas como Google e Microsoft – ambos líderes no campo de IA – assinaram a declaração.
Isso ocorre dois meses depois que o chefe da Tesla, Elon Musk, e centenas de outros emitiram uma carta aberta pedindo uma pausa no desenvolvimento de tal tecnologia até que se mostre seguro.
No entanto, a carta de Musk gerou críticas generalizadas de que os terríveis avisos de colapso social eram extremamente exagerados e muitas vezes refletiam os pontos de discussão dos impulsionadores da IA.
A acadêmica norte-americana Emily Bender, que co-escreveu um artigo influente criticando a IA, disse que a carta de março, assinada por centenas de figuras notáveis, estava “cheia de hype da IA”.
‘Surpreendentemente imparcial’
Bender e outros críticos criticaram as empresas de IA por se recusarem a publicar as fontes de seus dados ou revelar como eles são processados – o chamado problema da “caixa preta”.
Entre as críticas está a de que os algoritmos podem ser treinados em material racista, sexista ou politicamente tendencioso.
Altman, que atualmente está em turnê pelo mundo em uma tentativa de ajudar a moldar a conversa global em torno da IA, insinuou várias vezes a ameaça global representada pela tecnologia que sua empresa está desenvolvendo.
“Se algo der errado com a IA, nenhuma máscara de gás irá ajudá-lo”, disse ele a um pequeno grupo de jornalistas em Paris na última sexta-feira.
Mas ele defendeu a recusa de sua empresa em publicar os dados de origem, dizendo que os críticos realmente só queriam saber se os modelos eram tendenciosos.
“Como ele se sai em um teste de preconceito racial é o que importa lá”, disse ele, acrescentando que o modelo mais recente foi “surpreendentemente não tendencioso”.
.