technology

Medos fantasiosos sobre a IA estão obscurecendo como já abusamos da inteligência das máquinas | Kenan Malik

.

euEm novembro passado, um jovem afro-americano, Randal Quran Reid, foi parado pela polícia estadual na Geórgia enquanto dirigia para Atlanta. Ele foi preso sob mandados emitidos pela polícia da Louisiana por dois casos de roubo em Nova Orleans. Reid nunca esteve na Louisiana, muito menos em Nova Orleans. Seus protestos não deram em nada, e ele ficou preso por seis dias enquanto sua família gastava freneticamente milhares de dólares contratando advogados na Geórgia e na Louisiana para tentar libertá-lo.

Descobriu-se que os mandados de prisão foram baseados apenas em uma correspondência de reconhecimento facial, embora isso nunca tenha sido mencionado em nenhum documento policial; os mandados afirmavam que “uma fonte confiável” havia identificado Reid como o culpado. A correspondência de reconhecimento facial estava incorreta, o caso acabou desmoronando e Reid foi solto.

Ele teve sorte. Ele tinha a família e os recursos para descobrir a verdade. Milhões de americanos não teriam tais ativos sociais e financeiros. Reid, porém, não é a única vítima de uma falsa correspondência de reconhecimento facial. Os números são pequenos, mas até agora todos os presos nos EUA após uma falsa correspondência são negros. O que não é surpreendente, já que sabemos não apenas que o próprio design do software de reconhecimento facial torna mais difícil identificar corretamente pessoas de cor, mas também que os algoritmos replicam os preconceitos do mundo humano.

O caso de Reid, e de outros como ele, deveria estar no centro de um dos mais urgentes debates contemporâneos: o da inteligência artificial e os perigos que ela representa. O fato de não ser, e tão poucos o reconhecerem como significativo, mostra como a discussão sobre IA se tornou distorcida e como ela precisa ser redefinida. Há muito tempo existe uma corrente de medo do tipo de mundo que a IA pode criar. Desenvolvimentos recentes turbinaram esse medo e o inseriram na discussão pública. O lançamento no ano passado da versão 3.5 do ChatGPT, e da versão 4 em março deste ano, criou admiração e pânico: admiração pela facilidade do chatbot em imitar a linguagem humana e pânico pelas possibilidades de falsificação, de redações de estudantes a reportagens.

Então, há duas semanas, os principais membros da comunidade de tecnologia, incluindo Sam Altman, CEO da OpenAI, que fabrica o ChatGPT, Demis Hassabis, CEO do Google DeepMind, e Geoffrey Hinton e Yoshua Bengio, frequentemente vistos como os padrinhos da IA ​​moderna, foi mais longe. Eles divulgaram uma declaração alegando que a IA poderia anunciar o fim da humanidade. “Mitigar o risco de extinção da IA”, eles alertaram, “deve ser uma prioridade global ao lado de outros riscos em escala social, como pandemias e guerra nuclear”.

Se tantos chefões do Vale do Silício realmente acreditam que estão criando produtos tão perigosos quanto afirmam, por que, alguém pode se perguntar, eles continuam gastando bilhões de dólares construindo, desenvolvendo e refinando esses produtos? É como um viciado em drogas tão dependente de sua dose que implora por uma reabilitação forçada para afastá-lo das coisas difíceis. Desfilar seus produtos como superinteligentes e superpoderosos certamente ajuda a massagear os egos dos empreendedores de tecnologia, além de aumentar seus resultados. E, no entanto, a IA não é tão inteligente nem tão poderosa quanto eles gostariam que acreditássemos. O ChatGPT é extremamente bom em recortar e colar texto de uma forma que o faz parecer quase humano, mas tem uma compreensão insignificante do mundo real. É, como disse um estudo, pouco mais que um “papagaio estocástico”.

Ainda estamos muito longe do Santo Graal da “inteligência geral artificial”, máquinas que possuem a capacidade de compreender ou aprender qualquer tarefa intelectual que um ser humano possa realizar e, portanto, podem exibir o mesmo tipo de inteligência grosseira que os humanos, muito menos um forma superior de inteligência.

A obsessão por medos fantasiosos ajuda a esconder os problemas mais mundanos, mas também mais significativos, da IA ​​que deveriam nos preocupar; os tipos de problemas que enredaram Reid e que poderiam enredar a todos nós. Da vigilância à desinformação, vivemos em um mundo moldado pela IA. Uma característica definidora do “novo mundo da vigilância ambiental”, observou o empresário de tecnologia Maciej Ceglowski em uma audiência do comitê do Senado dos EUA, é que “não podemos optar por sair dele, assim como não podemos desistir da cultura automobilística ao nos recusarmos a dirigir ”. Tropeçamos em um panóptico digital quase sem perceber. No entanto, sugerir que vivemos em um mundo moldado pela IA é colocar o problema no lugar errado. Não existe máquina sem humano, nem é provável que exista.

A razão pela qual Reid foi preso injustamente tinha menos a ver com inteligência artificial do que com as decisões tomadas por humanos. Os humanos que criaram o software e o treinaram. Os humanos que o implantaram. Os humanos que aceitaram sem questionar o jogo de reconhecimento facial. Os humanos que obtiveram um mandado de prisão alegando que Reid havia sido identificado por uma “fonte confiável”. Os humanos que se recusaram a questionar a identificação mesmo após os protestos de Reid. E assim por diante.

Muitas vezes, quando falamos do “problema” da IA, removemos o ser humano de cena. Praticamos uma forma do que o cientista social e desenvolvedor de tecnologia Rumman Chowdhury chama de “terceirização moral”: culpar as máquinas pelas decisões humanas. Preocupamo-nos que a IA “elimine empregos” e torne milhões redundantes, em vez de reconhecer que as decisões reais são tomadas por governos e corporações e pelos humanos que os administram. As manchetes alertam sobre “algoritmos racistas e sexistas”, mas os humanos que criaram os algoritmos e aqueles que os implantam permanecem quase ocultos.

Chegamos, em outras palavras, a ver a máquina como o agente e os humanos como vítimas da agência da máquina. Ironicamente, são nossos próprios medos da distopia, não a própria IA, que estão ajudando a criar um mundo no qual os humanos se tornam mais marginais e as máquinas mais centrais. Tais temores também distorcem as possibilidades de regulamentação. Em vez de ver a regulamentação como um meio pelo qual podemos moldar coletivamente nosso relacionamento com a IA e com as novas tecnologias, ela se torna algo imposto de cima como um meio de proteger os humanos das máquinas. Não é a IA, mas nosso senso de fatalismo e nossa cegueira em relação ao modo como as sociedades humanas já estão empregando inteligência de máquina para fins políticos que mais deveriam nos preocupar.

Kenan Malik é colunista do Observer

Você tem uma opinião sobre as questões levantadas neste artigo? Se você gostaria de enviar uma carta de até 250 palavras para ser considerada para publicação, envie-nos um e-mail para observer.letters@observer.co.uk

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo