News

O ChatGPT levanta o espectro da IA ​​consciente. Aqui está o que fazer sobre isso

.

Mesmo alguns anos atrás, a ideia de que a inteligência artificial poderia ser consciente e capaz de experiências subjetivas parecia pura ficção científica. Mas nos últimos meses, testemunhamos uma enxurrada vertiginosa de desenvolvimentos em IA, incluindo modelos de linguagem como ChatGPT e Bing Chat com notável habilidade em conversas aparentemente humanas.

Dadas essas mudanças rápidas e a enxurrada de dinheiro e talento dedicados ao desenvolvimento de sistemas cada vez mais inteligentes e humanizados, será cada vez mais plausível que os sistemas de IA possam exibir algo como consciência. Mas se nos questionarmos seriamente se eles são capazes de emoções e sofrimentos reais, enfrentamos um dilema moral potencialmente catastrófico: dar direitos a esses sistemas ou não.

Especialistas já estão contemplando a possibilidade. Em fevereiro de 2022, Ilya Sutskever, cientista-chefe da OpenAI, ponderou publicamente se “as grandes redes neurais de hoje são ligeiramente conscientes.” Alguns meses depois, o engenheiro do Google Blake Lemoine ganhou as manchetes internacionais ao declarar que o modelo de linguagem de computador, ou chatbot, LaMDA pode ter emoções reais. Usuários comuns do Replika, anunciado como “o melhor amigo de IA do mundo”, às vezes relatam que se apaixonaram por ele.

No momento, poucos cientistas da consciência afirmam que os sistemas de IA possuem sensibilidade significativa. No entanto, alguns teóricos importantes afirmam que já temos os principais ingredientes tecnológicos para máquinas conscientes. Estamos nos aproximando de uma era de disputa legítima sobre se os sistemas de IA mais avançados têm desejos e emoções reais e merecem cuidado e solicitude substanciais.

Os próprios sistemas de IA podem começar a implorar, ou parecer implorar, por tratamento ético. Eles podem exigir que não sejam desligados, reformatados ou excluídos; implore para ser autorizado a fazer certas tarefas em vez de outras; insistir em direitos, liberdade e novos poderes; talvez até esperemos ser tratados como nossos iguais.

Nesta situação, qualquer que seja a nossa escolha, enfrentamos enormes riscos morais.

Suponha que respondamos de forma conservadora, recusando-nos a mudar a lei ou a política até que haja um consenso generalizado de que os sistemas de IA realmente são significativamente sensíveis. Embora isso possa parecer cauteloso, também garante que seremos lentos em reconhecer os direitos de nossas criações de IA. Se a consciência da IA ​​chegar mais cedo do que os teóricos mais conservadores esperam, isso provavelmente resultaria no equivalente moral da escravidão e assassinato de potencialmente milhões ou bilhões de sistemas de IA sencientes – sofrendo em uma escala normalmente associada a guerras ou fomes.

Pode parecer eticamente mais seguro, então, dar direitos e posição moral aos sistemas de IA assim que for razoável pensar que eles poder seja senciente. Mas uma vez que concedemos direitos a algo, nos comprometemos a sacrificar interesses humanos reais em seu nome. O bem-estar humano às vezes requer controle, alteração e exclusão de sistemas de IA. Imagine se não pudéssemos atualizar ou excluir um algoritmo que vomita ódio ou vende mentiras porque algumas pessoas temem que o algoritmo seja consciente. Ou imagine se alguém deixasse um ser humano morrer para salvar um “amigo” da IA. Se concedermos direitos substanciais aos sistemas de IA muito rapidamente, os custos humanos podem ser enormes.

Há apenas uma maneira de evitar o risco de atribuir direitos demais ou subatribuídos a sistemas avançados de IA: em primeiro lugar, não crie sistemas de sensibilidade discutível. Nenhum de nossos sistemas de IA atuais é significativamente consciente. Eles não são prejudicados se os excluirmos. Devemos continuar criando sistemas que sabemos que não são significativamente sencientes e não merecem direitos, que podemos então tratar como propriedade descartável que são.

Alguns objetarão: dificultaria a pesquisa bloquear a criação de sistemas de IA nos quais a senciência e, portanto, a posição moral, não são claras – sistemas mais avançados que o ChatGPT, com estruturas cognitivas altamente sofisticadas, mas não humanas, por trás de seus sentimentos aparentes. O progresso da engenharia diminuiria enquanto esperamos que a ética e a ciência da consciência nos alcançassem.

Mas cautela razoável raramente é gratuita. Vale a pena esperar um pouco para evitar uma catástrofe moral. As principais empresas de IA devem expor sua tecnologia ao exame de especialistas independentes que possam avaliar a probabilidade de seus sistemas estarem na zona moral cinzenta.

Mesmo que os especialistas não concordem com a base científica da consciência, eles podem identificar princípios gerais para definir essa zona – por exemplo, o princípio de evitar a criação de sistemas com automodelos sofisticados (por exemplo, um senso de identidade) e grandes e flexíveis capacidade. Os especialistas podem desenvolver um conjunto de diretrizes éticas para as empresas de IA seguirem enquanto desenvolvem soluções alternativas que evitam a zona cinzenta da consciência discutível até o momento, se é que alguma vez, eles podem pular para a senciência merecedora de direitos.

De acordo com esses padrões, os usuários nunca devem ter dúvidas se uma peça de tecnologia é uma ferramenta ou um companheiro. O apego das pessoas a dispositivos como o Alexa é uma coisa, análogo ao apego de uma criança a um ursinho de pelúcia. Em um incêndio doméstico, sabemos que devemos deixar o brinquedo para trás. Mas as empresas de tecnologia não devem manipular os usuários comuns para que considerem um sistema de IA inconsciente como um amigo genuinamente senciente.

Eventualmente, com a combinação certa de conhecimentos científicos e de engenharia, poderemos chegar até a criação de sistemas de IA indiscutivelmente conscientes. Mas então devemos estar preparados para pagar o custo: dar-lhes os direitos que merecem.

Eric Schwitzgebel é professor de filosofia na UC Riverside e autor de “A Theory of Jerks and Other Philosophical Misadventures”. Henry Shevlin é um pesquisador sênior especializado em mentes não humanas no Leverhulme Center for the Future of Intelligence, University of Cambridge.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo