.
TA recente avalanche de alertas sobre a inteligência artificial e como ela está transformando o aprendizado, subvertendo as funções legais, financeiras e organizacionais e remodelando a interação social e cultural, deixou de lado o papel que já está desempenhando na governança.
Os governos dos Estados Unidos em todos os níveis estão tentando fazer a transição de um modelo programático de prestação de serviços para um modelo centrado no cidadão.
Los Angeles, a segunda maior cidade dos EUA, é pioneira no campo, revelando tecnologias para ajudar a simplificar as funções burocráticas, desde o recrutamento da polícia até o pagamento de multas de estacionamento, o preenchimento de buracos ou a localização de recursos na biblioteca.
Por enquanto, os avanços da IA estão limitados à automação. Quando o ChatGPT foi questionado recentemente sobre como isso poderia mudar a forma como as pessoas lidam com o governo, ele respondeu que “a próxima geração de IA, que inclui o ChatGPT, tem o potencial de revolucionar a maneira como os governos interagem com seus cidadãos”.
Mas o fluxo de informações e as operações automatizadas são apenas um aspecto da governança que pode ser atualizado. A IA, definida como tecnologia que pode pensar humanamente, agir humanamente, pensar racionalmente ou agir racionalmente, também está perto de ser usada para simplificar os negócios políticos e burocráticos da formulação de políticas.
“Os fundamentos da formulação de políticas – especificamente, a capacidade de detectar padrões de necessidade, desenvolver programas baseados em evidências, prever resultados e analisar a eficácia – caem diretamente no ponto ideal da IA”, disse a empresa de consultoria de gestão BCG em um artigo publicado em 2021. “ Seu uso para ajudar a moldar a política está apenas começando”.
Isso foi um avanço em relação a um estudo publicado quatro anos antes, que alertava que os governos continuavam a operar “da maneira que têm feito há séculos, com estruturas hierárquicas, isoladas e burocráticas” e que a velocidade acelerada da mudança social era “grande demais para a maioria”. governos manipulem em sua forma atual”.
De acordo com Darrell West, pesquisador sênior do Center for Technology Innovation da Brookings Institution e coautor de Turning Point: Policymaking in the Era of Artificial Intelligence, a IA focada no governo pode ser substancial e transformadora.
“Existem muitas maneiras pelas quais a IA pode tornar o governo mais eficiente”, diz West. “Estamos vendo avanços mensalmente e precisamos garantir que eles estejam de acordo com os valores humanos básicos. No momento, não há regulamentação e não há há 30 anos.”
Mas isso imediatamente levanta questões sobre preconceito. Um estudo recente da Brookings, “Comparando o Google Bard com o ChatGPT da OpenAI sobre viés político, fatos e moralidade”, descobriu que a IA do Google afirmou que “a Rússia não deveria ter invadido a Ucrânia em 2022”, enquanto o ChatGPT declarou: “Como um modelo de linguagem de IA, não é apropriado para mim expressar opiniões ou tomar partido em questões políticas”.
No início deste mês, o governo Biden pediu medidas mais fortes para testar a segurança de ferramentas de inteligência artificial, como o ChatGPT, que atingiram 100 milhões de usuários mais rapidamente do que qualquer aplicativo de consumo anterior, antes de serem lançados publicamente. “Existe um nível elevado de preocupação agora, dado o ritmo da inovação, de que ela precisa acontecer com responsabilidade”, disse o secretário assistente de comércio, Alan Davidson. O presidente Biden foi questionado recentemente se a tecnologia é perigosa. “Ele continua a ser visto. Pode ser”, disse.
Isso aconteceu depois que o CEO da Tesla, Elon Musk, e o cofundador da Apple, Steve Wozniak, juntaram-se a centenas pedindo uma pausa de seis meses nos experimentos de IA. Mas o CEO da OpenAI, Sam Altman, disse que, embora concordasse com partes da carta aberta, estava “perdendo a maior parte das nuances técnicas sobre onde precisamos da pausa”.
“Acho que mover com cautela e um rigor cada vez maior para questões de segurança é realmente importante”, acrescentou Altman.
Como isso afeta os sistemas de governança ainda não foi totalmente explorado, mas há cautelas. “Os algoritmos são tão bons quanto os dados nos quais se baseiam, e o problema com a IA atual é que ela foi treinada com dados incompletos ou não representativos e o risco de viés ou injustiça é bastante substancial”, diz West.
A imparcialidade e a equidade dos algoritmos são tão boas quanto a programação de dados subjacente a eles. “Nas últimas décadas, permitimos que as empresas de tecnologia decidissem, por isso precisamos de melhores proteções e garantir que os algoritmos respeitem os valores humanos”, diz West. “Precisamos de mais fiscalização.”
Michael Ahn, professor do departamento de políticas públicas e assuntos públicos da Universidade de Massachusetts, diz que a IA tem o potencial de personalizar os serviços do governo para os cidadãos com base em seus dados. Mas enquanto os governos poderiam trabalhar com empresas como ChatGPT da OpenAI, Bard do Google ou LLaMa da Meta – os sistemas teriam que ser fechados em um silo.
“Se eles conseguirem manter uma barreira para que as informações não vazem, isso pode ser um grande avanço. A desvantagem é que você pode realmente manter os dados seguros do lado de fora? Se vazar uma vez, vazou, então há riscos potenciais muito grandes”.
De acordo com qualquer leitura, os temores subjacentes sobre o uso de tecnologia no processo eleitoral enfatizaram o processo de difamação da Dominion Voting Systems contra falsas alegações de fraude eleitoral transmitidas pela Fox News. “A IA pode armar as informações”, diz West. “Está acontecendo na esfera política porque facilita a disseminação de informações falsas e vai ser um problema nas eleições presidenciais.”
Introduza a IA em qualquer parte do processo político e a divisão atribuída à desinformação só aumentará. “As pessoas só vão fazer as perguntas que desejam e ouvir as respostas de que gostam, então a fratura só vai continuar”, diz Ahn.
“O governo terá que mostrar que as decisões são tomadas com base em dados e focadas nos problemas em questão, não na política… Mas as pessoas podem não ficar felizes com isso.”
E muito do que se imagina em torno da IA abrange os domínios da ficção científica e da política. O professor West disse que não precisa ler ficção científica – ele sente como se já estivesse vivendo isso. O HAL 9000 de Arthur C Clarke, de 1968, continua sendo nosso modelo para um computador malévolo de IA. Mas o impacto da IA no governo, como disse um artigo recente do Center for Public Impact, é um destino desconhecido.

Questionado se a inteligência artificial poderia se tornar presidente dos EUA, o ChatGPT respondeu: “Como modelo de linguagem de inteligência artificial, não tenho capacidade física para ocupar um cargo presidencial”. E estabeleceu outras restrições, incluindo requisitos constitucionais para ser um cidadão nato, ter pelo menos 35 anos e residir nos EUA por 14 anos.
Em 2016, o artista digital Aaron Siegel imaginou o supercomputador Watson AI da IBM concorrendo à presidência – uma resposta à sua desilusão com os candidatos – dizendo que o computador poderia “aconselhar as melhores opções para qualquer decisão com base em seu impacto na economia global, o meio ambiente, educação, saúde, política externa e liberdades civis”.
No ano passado, o trabalhador de tecnologia Keir Newton publicou um romance, 2032: The Year AI Runs For President, que imagina um supercomputador chamado Algo, programado por um barão da tecnologia parecido com Musk sob o ethos utilitário “o mais bom para a maioria das pessoas” e executando para a Casa Branca sob o slogan da campanha, “Não de um. Não para um. Mas de todos e para todos.”
Newton diz que, embora seu romance possa ser lido como distópico, ele é mais otimista do que negativo sobre a IA à medida que ela passa da automação para a cognição. Ele diz que, quando escreveu o romance na turbulenta preparação para a eleição de 2020, era razoável desejar uma liderança racional.
“Acho que ninguém espera que a IA chegue a esse ponto tão rapidamente, mas a maior parte da formulação de políticas de IA gira em torno da análise de dados. A diferença surge quando pensamos que a IA está tomando decisões com base em seu próprio pensamento, em vez de ser prescrita uma fórmula ou conjunto de regras.
“Estamos em um lugar interessante. Mesmo se acreditarmos que a IA pode ser completamente racional e imparcial, as pessoas ainda vão surtar. A parte mais interessante disso não é que o governo exige regulamentação, mas a própria indústria de IA. Está clamando por respostas sobre o que deveria estar fazendo”.
.