.
Mais uma vez, um grupo dos principais pesquisadores de IA e empresas de tecnologia alertaram que o atual rápido desenvolvimento da inteligência artificial pode significar um desastre para a humanidade.
Os riscos abrangem conflitos nucleares, doenças, desinformação e IA descontrolada sem supervisão, os quais representam uma ameaça imediata à sobrevivência humana.
Mas não será perdido que muitos desses avisos vêm das mesmas pessoas que lideram o desenvolvimento de IA e promovem ferramentas e programas de inteligência artificial em suas respectivas empresas.
Por que as empresas de tecnologia e os cientistas de IA estão alertando sobre o risco da IA?
Em 30 de maio de 2023, mais de 350 pesquisadores, desenvolvedores e engenheiros de IA divulgaram uma declaração assinada alertando contra a ameaça da IA à humanidade.
Mitigar o risco de extinção da IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerra nuclear.
Os signatários da declaração do Safe.ai incluíram Sam Altman da OpenAI, Demis Hassabis do Google DeepMind e Dario Amodei da Anthropic, juntamente com os vencedores do Turing Award Geoffrey Hinton e Yoshua Bengio (embora Yann LeCun, que também ganhou o mesmo prêmio, tenha se esquecido de assinar ). A lista é quase quem é quem no mundo do desenvolvimento de IA – as pessoas que lideram o caminho com IA – mas aqui estão todos eles, alertando que a IA pode significar um desastre para a humanidade.
É uma declaração curta que deixa as ameaças claras, citando especificamente duas áreas principais que podem colocar em perigo o mundo como o conhecemos: guerra nuclear e questões de saúde global. Embora a ameaça de conflito nuclear seja uma preocupação, o risco de uma pandemia é uma ameaça mais tangível para a maioria.
No entanto, não é apenas uma pandemia global que pode causar problemas de saúde relacionados à IA. O Guardian relata vários outros problemas de saúde da IA que podem afetar os humanos se não forem verificados antes do uso generalizado. Um exemplo relacionado ao uso de oxímetros alimentados por IA que “superestimam os níveis de oxigênio no sangue em pacientes com pele mais escura, resultando no subtratamento de sua hipóxia”.
Além disso, não é a primeira vez que um grupo de líderes tecnológicos pede uma pausa ou uma reavaliação séria do desenvolvimento da IA. Em março de 2023, Elon Musk e outros pesquisadores de IA assinaram um apelo à ação semelhante solicitando uma moratória no desenvolvimento de IA até que mais regulamentação pudesse ser implementada para ajudar a orientar o processo.
Qual é o risco da IA?
A maioria dos riscos associados à IA, pelo menos neste contexto, está relacionada ao desenvolvimento de uma tecnologia de IA descontrolada que excede as capacidades dos humanos, na qual eventualmente se volta contra seu criador e apaga a vida como a conhecemos. É uma história abordada inúmeras vezes na escrita de ficção científica, mas a realidade agora está mais próxima do que podemos pensar.
Grandes modelos de linguagem (que sustentam ferramentas como ChatGPT) estão aumentando drasticamente em recursos. No entanto, ferramentas como o ChatGPT têm muitos problemas, como preconceito inerente, preocupações com a privacidade e alucinação de IA, sem falar em sua capacidade de ser desbloqueado para agir fora dos limites de seus termos e condições programados.
À medida que grandes modelos de linguagem aumentam e têm mais pontos de dados para acessar, juntamente com acesso à Internet e uma maior compreensão dos eventos atuais, os pesquisadores de IA temem que um dia, nas palavras do CEO da OpenAI, Sam Altman, “dá muito errado”.
Como os governos estão regulando o desenvolvimento da IA para interromper os riscos?
A regulamentação da IA é fundamental para prevenir riscos. No início de maio de 2023, Sam Altman pediu mais regulamentação da IA, afirmando que “a intervenção regulatória dos governos será crítica para mitigar os riscos de modelos cada vez mais poderosos”.
Então, a União Europeia anunciou o AI Act, um regulamento criado para fornecer uma estrutura muito mais forte para o desenvolvimento da IA em toda a UE (com muitos regulamentos se espalhando para outras jurisdições). Altman inicialmente ameaçou retirar a OpenAI da UE, mas depois voltou atrás e concordou que a empresa cumpriria o regulamento de IA que ele havia solicitado anteriormente.
Independentemente disso, está claro que a regulamentação do desenvolvimento e dos usos da IA é importante.
A IA acabará com a humanidade?
Como grande parte do debate em torno desse tópico é baseado em hipóteses sobre o poder de versões futuras da IA, há questões sobre a longevidade e o poder que qualquer regulamentação de IA pode ter. Qual a melhor forma de regular uma indústria que já se move a mil milhas por minuto e avanços no desenvolvimento acontecem diariamente?
Além disso, ainda há alguma dúvida sobre as capacidades da IA em geral e onde ela irá parar. Enquanto aqueles que temem o pior apontam para a inteligência artificial geral se tornando um senhor humano, outros apontam para o fato de que as versões atuais da IA não podem nem fazer perguntas básicas de matemática e que carros totalmente autônomos ainda estão longe.
É difícil não concordar com quem olha para o futuro. Muitas das pessoas que gritam mais alto sobre os problemas que a IA pode representar estão no banco do motorista, olhando para onde podemos estar indo. Se são eles que exigem a regulamentação da IA para nos proteger de um futuro potencialmente horrendo, talvez seja hora de ouvir.
.