.
Quando Elon Musk apresentou a equipe por trás de sua nova empresa de inteligência artificial xAI no mês passado, o empresário bilionário respondeu a uma pergunta do ativista de mídia de direita Alex Lorusso. O ChatGPT começou a “editar a verdade” dando “respostas estranhas como a de que existem mais de dois gêneros”, postulou Lorusso. Isso foi um fator por trás da decisão de Musk de lançar o xAI, ele se perguntou.
“Acho que há um perigo significativo em treinar a IA para ser politicamente correta ou, em outras palavras, treinar a IA para não dizer o que ela realmente pensa ser verdade”, respondeu Musk. A IA de sua própria empresa, por outro lado, seria “máxima verdade”, ele havia dito anteriormente na apresentação.
Era um refrão comum de Musk, uma das pessoas mais ricas do mundo, CEO da Tesla e dono da plataforma antes conhecida como Twitter.
“O perigo de treinar a IA para acordar – em outras palavras, mentir – é mortal”, tuitou Musk em dezembro passado em resposta a Sam Altman, fundador da OpenAI.
A relação de Musk com a IA é complicada. Ele alertou sobre a ameaça existencial da IA por cerca de uma década e recentemente assinou uma carta aberta expressando preocupações de que isso destruiria a humanidade, embora tenha trabalhado simultaneamente para promover o desenvolvimento da tecnologia. Ele foi um dos primeiros investidores e membro do conselho da OpenAI e disse que o objetivo de sua nova empresa de IA é “entender a verdadeira natureza do universo”.
Mas sua crítica aos modelos de IA atualmente dominantes como “muito acordados” se somou a um grito de guerra maior da direita que surgiu desde o boom de ferramentas de IA generativas disponíveis ao público ao longo deste ano. À medida que bilhões de dólares são investidos na corrida armamentista para criar uma inteligência artificial cada vez mais avançada, a IA generativa também se tornou uma das mais recentes frentes de batalha na guerra cultural, ameaçando moldar como a tecnologia é operada e regulada em um momento crítico de seu desenvolvimento. .
A IA entra na guerra cultural
Políticos republicanos protestaram contra as grandes empresas de IA no Congresso e no julgamento de campanha. Em um comício de campanha em Iowa no final do mês passado, Ron DeSantis, candidato presidencial republicano e governador da Flórida, alertou que grandes empresas de IA usavam dados de treinamento que eram “mais acordados” e continham uma agenda política.
Ativistas conservadores como Christopher Rufo – que geralmente é creditado por provocar o pânico moral da direita em torno da teoria racial crítica sendo ensinada nas escolas – alertaram seus seguidores nas mídias sociais que “acordar a IA” era uma ameaça urgente. Grandes publicações conservadoras como Fox News e The National Review amplificaram esses temores, com o último argumentando que o ChatGPT havia sucumbido à “ideologia despertada”.
E ativistas de direita criticaram uma ordem executiva de Joe Biden que dizia respeito à equidade no desenvolvimento da IA como uma ação autoritária para promover a “IA despertada”. Um membro do Manhattan Institute, um thinktank conservador, descreveu a ordem como parte de um “câncer ideológico e social”.
A reação da direita contra a IA generativa contém ecos sobre a resistência dessas mesmas figuras contra as políticas de moderação de conteúdo nas plataformas de mídia social. Assim como essas políticas, muitas das salvaguardas em vigor em modelos de IA como o ChatGPT visam impedir o uso da tecnologia para a promoção de discurso de ódio, desinformação ou propaganda política. Mas a direita enquadrou essas decisões de moderação de conteúdo como uma conspiração de grandes ativistas liberais e de tecnologia para silenciar os conservadores.

Enquanto isso, dizem os especialistas, suas críticas de A IA atribui muita agência aos modelos generativos de IA e assume que os serviços podem manter pontos de vista como se fossem seres sencientes.
“Tudo o que a IA generativa faz é remixar e regurgitar coisas em seu material de origem”, disse Meredith Broussard, professora da Universidade de Nova York e autora do livro More than a Glitch: Confronting Race, Gender, and Ability Bias in Tech. “Não é mágica.”
Perdido inteiramente nas discussões entre os críticos de direita, dizem os especialistas, está a maneira como os sistemas de IA tendem a exacerbar as desigualdades existentes e prejudicar grupos marginalizados. Modelos de conversão de texto em imagem, como o Stable Diffusion, criam imagens que tendem a amplificar estereótipos sobre raça e gênero. Uma investigação da Markup descobriu que algoritmos projetados para avaliar pedidos de hipoteca acabaram negando candidatos de cor em uma taxa 40 a 80% maior do que seus equivalentes brancos. O viés racial na tecnologia de reconhecimento facial contribuiu para prisões injustas, enquanto os estados expandem o uso de vigilância assistida por IA.
Uma guerra cultural com consequências
Ainda assim, as críticas de direita aos líderes da IA já estão tendo consequências. Em meio a uma nova investida dos republicanos contra acadêmicos e autoridades que monitoram a desinformação, e um processo de Musk contra a organização anti-discurso de ódio Center for Countering Digital Hate, cujo trabalho o bilionário diz ter resultado em dezenas de milhões de dólares em receita perdida em Twitter, a campanha “anti-woke AI” está pressionando As empresas de IA devem parecer politicamente neutras.

Após a onda inicial de reação dos conservadores, a OpenAI publicou um blog em fevereiro que parecia destinado a apaziguar os críticos em todo o espectro político e prometeu investir recursos para “reduzir preconceitos flagrantes e sutis em como o ChatGPT responde a diferentes entradas”.
E ao falar com o apresentador de podcast Lex Fridman, que se tornou popular entre os cruzados culturais anti-woke como Jordan Peterson e empresários de tecnologia como Musk, em março, o fundador do ChatGPT, Sam Altman, disse: “Acho que foi muito tendencioso e sempre será. Não haverá uma versão do GPT que todos concordem ser imparcial.”
Ativistas de direita também fez várias tentativas rudimentares de lançar sua própria IA “anti-despertar”. O CEO da Gab, uma plataforma de mídia social preferida por nacionalistas brancos e outros membros da extrema direita, anunciou no início deste ano que seu site estava lançando seu próprio serviço de IA. “Os cristãos devem entrar na corrida armamentista da IA”, proclamou Andrew Torba, acusando os modelos existentes de terem uma “visão de mundo satânica”. A chatbot na plataforma Discord chamado “BasedGPT” foi treinado no modelo de linguagem grande vazado do Facebook, mas sua saída era muitas vezes factualmente imprecisa ou sem sentido e incapaz de responder a perguntas básicas.
Essas tentativas anteriores falharam em ganhar força mainstream.

Resta saber para onde o xAI está indo. A empresa diz em seu site que seu objetivo é “compreender a verdadeira natureza do universo” e recrutou uma equipe exclusivamente masculina de pesquisadores de empresas como a OpenAI e instituições como a Universidade de Toronto. Não está claro sob quais princípios éticos ele operará, além dos votos de Musk de que será “o máximo verdadeiro”. A empresa contratou o pesquisador de IA Dan Hendrycks, do Center for AI Safety, como consultor. Hendrycks já havia alertado sobre os riscos de longo prazo que a IA representa para a humanidade, um medo que Musk disse que compartilha e que se alinha com as crenças de longo prazo que ele freqüentemente endossou.
Musk, xAI, Hendrycks e o Center for AI Safety não foram encontrados para comentar.
Apesar das discussões futuristas de figuras como Musk sobre modelos de IA aprendendo vieses à medida que se tornam forças conscientes e potencialmente onipotentes, alguns pesquisadores acreditam que a resposta mais simples para o porquê desses modelos não se comportarem como as pessoas querem é que eles são instáveis, propensos a ao erro e reflexo da atual polarização política. A IA generativa, que é treinada em conjuntos de dados gerados por humanos e usa esse material para produzir resultados, é mais um espelho que reflete o estado fragmentado do conteúdo online.
“A internet é maravilhosa e também muito tóxica”, disse Broussard. “Ninguém está feliz com as coisas que estão na internet, então não sei por que eles ficariam felizes com as coisas que saem da IA generativa.”
.







