Ciência e Tecnologia

Qual é a singularidade na IA?

Isso faz com que os humanos não sejam mais capazes de entender ou controlar a tecnologia que está sendo criada ou exijam a ajuda de ferramentas de privacidade como um roteador VPN para mantê-los seguros, potencialmente levando as máquinas a assumir algum nível de controle sobre a humanidade.

Intimamente ligada ao conceito de singularidade está a inteligência artificial geral. AGI refere-se à inteligência artificial que é capaz de executar qualquer tarefa, bem como um ser humano. As pessoas pensam na AGI como um requisito para que a singularidade ocorra.

A tecnologia de IA atual é treinada em conjuntos de dados existentes gerados por humanos. Isso significa que tudo o que a IA sabe vem de humanos – e, por sua vez, isso indica que os humanos ainda são mais inteligentes. A singularidade marcaria uma mudança para os computadores que aprenderam tanto que são capazes de inovar e criar tecnologia totalmente nova – e estranha – para os humanos.

O que os computadores fariam quando são mais poderosos do que nós? Destruir o mundo, ou salvá-lo – ou são a mesma coisa, como muitos de uma história de ficção científica nos fariam acreditar? Os cientistas que especularam sobre a singularidade pensam que, se esse momento chegar, será um ponto de virada decisivo na história humana.

É um pensamento preocupante, mas será que tal evento realmente acontecerá? Podemos pará-lo? E mesmo que alcancemos a singularidade da IA, isso significa desgraça e tristeza para a humanidade, ou entraremos em uma era de cooperação entre humanos e IA?

Quando a singularidade acontecerá?

Com os rápidos avanços no mundo da IA recentemente, a singularidade está começando a parecer mais uma possibilidade. A questão é quando isso ocorrerá.

Ray Kurzweil, chefe de IA do Google, previu há alguns anos que a singularidade estaria aqui até 2045. Em uma conferência recente, um especialista em IA, John Hennessy, disse: “Alguns de nós pensávamos que aquele ponto em que teríamos inteligência artificial geral estava a 40 ou 50 anos de distância. Acho que o horizonte de todo mundo se moveu por provavelmente 10 ou 20 anos.”

Com a explosão de serviços de IA que vimos ultimamente, especialmente cobrindo arte e a palavra escrita – e algumas das maiores empresas de tecnologia do mundo lutando para superar umas às outras – seu comentário soa verdadeiro.

Dito isso, ninguém sabe se a singularidade realmente acontecerá. É possível que os desenvolvedores coloquem salvaguardas suficientes na tecnologia para evitá-lo. Desde a estreia pública do ChatGPT, muitos especialistas pediram a suspensão da pesquisa de IA antes que mais regulamentações e supervisão sejam estabelecidas.

Podemos impedir a singularidade?

Especialistas em IA estão divididos sobre o tema. Alguns dizem que a singularidade é inevitável, enquanto outros afirmam que podemos evitá-la por meio da regulação cuidadosa do desenvolvimento da IA.

Embora a UE e o Reino Unido estejam explorando a regulamentação de IA, há uma preocupação de que, quando os regulamentos de IA forem aprovados, a singularidade já possa ter acontecido. E não há garantia de que alguma regulamentação significativa possa ser aprovada.

O potencial de fazer melhorias em muitos campos com IA, incluindo ciência, medicina e educação, é uma perspectiva atraente. E nem mencionamos o lado corporativo da IA – há muito dinheiro a ser feito. A OpenAI disse que pode deixar a UE se os regulamentos atuais propostos forem aprovados. É uma primeira amostra de resistência contra as regulamentações de IA que podemos esperar de algumas das empresas mais poderosas do mundo.

Além disso, os governos vão querer competir uns com os outros na esfera da IA. Mesmo que haja acordo sobre a potencial ameaça da IA, nenhum país quer interromper o progresso por medo de ficar atrás de seus rivais.

No entanto, há outras maneiras de potencialmente prevenir a singularidade. Uma delas seria implementar um kill switch (físico ou programado na própria IA) para encerrar uma IA se ela se aproximasse de um estado que se acredita ser singularidade. No entanto, o término de uma IA útil também não é um resultado ideal. Em outro cenário, a IA pode se rebelar, sabendo da existência do kill switch, em vez de impulsioná-lo a alcançar a singularidade.

O que tornaria a singularidade possível?

O desenvolvimento contínuo da inteligência artificial é o que tornará a singularidade possível. Se a IA chegar ao ponto em que é capaz de inventar tecnologia além de nossa compreensão e capacidades (AGI), é seguro dizer que a singularidade aconteceu – a IA excedeu a humanidade em termos de inteligência.

E mesmo que restrições sejam colocadas em prática na programação de uma IA para impedir que sua inteligência substitua a da humanidade, pequenos erros ou parâmetros inadequadamente definidos podem inadvertidamente causar a singularidade que estávamos tentando evitar.

Comportamentos imprevistos na IA já foram observados devido a parâmetros mal definidos. Em 2013, por exemplo, o programador Tom Murphy projetou uma IA para jogar jogos do Nintendo NES. Enquanto jogava Tetris, a IA aprendeu a pausar indefinidamente o jogo para evitar que perdesse. Murphy não havia programado a IA para fazer isso. Imagine que consequências imprevistas poderiam ocorrer com uma IA muito mais poderosa.

O que pode acontecer na singularidade?

Você estará familiarizado com esta resposta: Não temos ideia. E é bastante assustador, embora um pouco emocionante. Um cenário idealista veria humanos e máquinas trabalhando juntos, avançando para criar um futuro melhor para ambos. Novas tecnologias seriam descobertas, potencialmente permitindo que a humanidade desse nossos primeiros passos para se estabelecer em outro lugar do sistema solar. Humanos e máquinas podem até se fundir para criar uma nova forma de inteligência.

No entanto, outro futuro veria as máquinas dominando o mundo, com os humanos vivendo sob seu controle. Dado que a singularidade resultaria em tecnologia além do nosso entendimento, é altamente provável que não conseguíssemos parar as máquinas. Filmes e livros há muito exploram esse futuro, assim como o físico Stephen Hawking e o empresário Elon Musk, que temem que a IA avançada possa escapar do nosso controle.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo