.
Novas técnicas de engenharia e entendimento científico sempre impressionaram e assustaram. Sem dúvida, continuarão a fazê-lo. A OpenAI anunciou recentemente que prevê “superinteligência” – IA superando as habilidades humanas – nesta década. Ela está, portanto, construindo uma nova equipe e dedicando 20% de seus recursos de computação para garantir que o comportamento de tais sistemas de IA esteja alinhado com os valores humanos.
Parece que eles não querem superinteligências artificiais desonestas travando guerra contra a humanidade, como no thriller de ficção científica de James Cameron de 1984, O Exterminador do Futuro (ominosamente, o exterminador de Arnold Schwarzenegger é enviado de volta no tempo de 2029). A OpenAI está convocando os melhores pesquisadores e engenheiros de aprendizado de máquina para ajudá-los a resolver o problema.
Mas os filósofos podem ter algo a contribuir? Mais genericamente, o que se pode esperar da disciplina milenar na nova era tecnologicamente avançada que agora está surgindo?
Para começar a responder a isso, vale ressaltar que a filosofia tem sido instrumental para a IA desde seu início. Uma das primeiras histórias de sucesso da IA foi um programa de computador de 1956, apelidado de Logic Theorist, criado por Allen Newell e Herbert Simon. Seu trabalho era provar teoremas usando proposições de Principia Mathematica, uma obra de três volumes de 1910 dos filósofos Alfred North Whitehead e Bertrand Russell, com o objetivo de reconstruir toda a matemática em uma base lógica.
De fato, o foco inicial na lógica na IA deveu muito aos debates fundamentais travados por matemáticos e filósofos.
Um passo significativo foi o desenvolvimento da lógica moderna pelo filósofo alemão Gottlob Frege no final do século XIX. Frege introduziu o uso de variáveis quantificáveis – em vez de objetos como pessoas – na lógica. Sua abordagem tornou possível dizer não apenas, por exemplo, “Joe Biden é presidente”, mas também expressar sistematicamente pensamentos gerais como “existe um X tal que X é presidente”, onde “existe” é um quantificador, e “X” é uma variável.
Outros contribuidores importantes na década de 1930 foram o lógico austríaco Kurt Gödel, cujos teoremas de completude e incompletude são sobre os limites do que se pode provar, e a “prova da indefinibilidade da verdade” do lógico polonês Alfred Tarski. Este último mostrou que a “verdade” em qualquer sistema formal padrão não pode ser definida dentro daquele sistema em particular, de modo que a verdade aritmética, por exemplo, não pode ser definida dentro do sistema de aritmética.
Por fim, a noção abstrata de máquina de computação de 1936, do pioneiro britânico Alan Turing, baseou-se nesse desenvolvimento e teve um enorme impacto na IA inicial.
Pode-se dizer, no entanto, que mesmo que essa boa e velha IA simbólica tenha dívidas com filosofia e lógica de alto nível, a IA de “segunda onda”, baseada em aprendizado profundo, deriva mais dos feitos concretos de engenharia associados ao processamento de grandes quantidades de dados.
Ainda assim, a filosofia também desempenhou um papel aqui. Considere grandes modelos de linguagem, como o que alimenta o ChatGPT, que produz texto conversacional. Eles são modelos enormes, com bilhões ou até trilhões de parâmetros, treinados em vastos conjuntos de dados (normalmente abrangendo grande parte da internet). Mas, em seu cerne, eles rastreiam – e exploram – padrões estatísticos de uso da linguagem. Algo muito parecido com essa ideia foi articulado pelo filósofo austríaco Ludwig Wittgenstein em meados do século XX: “o significado de uma palavra”, ele disse, “é seu uso na linguagem”.
Mas a filosofia contemporânea, e não apenas sua história, é relevante para a IA e seu desenvolvimento. Um LLM poderia realmente entender a linguagem que processa? Poderia atingir a consciência? Essas são questões profundamente filosóficas.
A ciência até agora não conseguiu explicar completamente como a consciência surge das células no cérebro humano. Alguns filósofos até acreditam que esse é um “problema tão difícil” que está além do escopo da ciência e pode exigir uma mão amiga da filosofia.
De forma similar, podemos perguntar se uma IA geradora de imagens poderia ser verdadeiramente criativa. Margaret Boden, uma cientista cognitiva britânica e filósofa da IA, argumenta que, embora a IA seja capaz de produzir novas ideias, ela terá dificuldade em avaliá-las como as pessoas criativas fazem.
Ela também prevê que apenas uma arquitetura híbrida (neural-simbólica) – que use tanto técnicas lógicas quanto aprendizado profundo de dados – alcançará a inteligência artificial geral.
Valores HUMANOS
Voltando ao anúncio da OpenAI, quando questionado sobre o papel da filosofia na era da IA, o ChatGPT nos sugeriu que (entre outras coisas) ela “ajuda a garantir que o desenvolvimento e o uso da IA estejam alinhados com os valores humanos”.
Nesse espírito, talvez possamos propor que, se o alinhamento de IA é o problema sério que a OpenAI acredita que seja, não é apenas um problema técnico a ser resolvido por engenheiros ou empresas de tecnologia, mas também um problema social. Isso exigirá a contribuição de filósofos, mas também de cientistas sociais, advogados, formuladores de políticas, usuários cidadãos e outros.

iwonderTV/Shutterstock
De fato, muitas pessoas estão preocupadas com o poder e a influência crescentes das empresas de tecnologia e seu impacto na democracia. Alguns argumentam que precisamos de uma maneira totalmente nova de pensar sobre IA – levando em consideração os sistemas subjacentes que dão suporte à indústria. O advogado e autor britânico Jamie Susskind, por exemplo, argumentou que é hora de construir uma “república digital” – uma que, em última análise, rejeite o próprio sistema político e econômico que deu às empresas de tecnologia tanta influência.
Por fim, vamos perguntar brevemente, como a IA afetará a filosofia? A lógica formal na filosofia na verdade data do trabalho de Aristóteles na antiguidade. No século XVII, o filósofo alemão Gottfried Leibniz sugeriu que um dia poderemos ter um “calculus ratiocinator” – uma máquina de calcular que nos ajudaria a derivar respostas para questões filosóficas e científicas de uma forma quase oracular.
Talvez estejamos agora começando a concretizar essa visão, com alguns autores defendendo uma “filosofia computacional” que literalmente codifica suposições e deriva consequências delas. Isso, em última análise, permite avaliações factuais e/ou orientadas a valores dos resultados.
Por exemplo, o projeto PolyGraphs simula os efeitos do compartilhamento de informações em mídias sociais. Isso pode então ser usado para abordar computacionalmente questões sobre como devemos formar nossas opiniões.
Certamente, o progresso na IA deu aos filósofos muito o que pensar; pode até ter começado a fornecer algumas respostas.
.