technology

Longtermismo: como as boas intenções e os ricos criaram um credo perigoso | John Naughton

.

EUNas últimas semanas, uma fotografia de Tony Blair e seu amigo Bill Clinton dividindo um painel com um garoto desalinhado vestindo uma camiseta, shorts largos e tênis tem circulado. O evento de abril foi nas Bahamas e financiado por uma empresa chamada FTX – uma supostamente “troca de criptomoedas amigável” – de propriedade do garoto desalinhado Sam Bankman-Fried (SBF a partir de agora). Blair e Clinton parecem muito satisfeitos por estarem lá, confirmando o efeito afrodisíaco da grande riqueza, porque o rapaz que estava bancando o anfitrião era aparentemente tão rico quanto Croesus, ou pelo menos valia US$ 32 bilhões.

E isso era uma riqueza real, ao que parecia. Afinal, os capitalistas de risco da Sequoia – que apoiaram histórias de sucesso do Vale do Silício, como Google e PayPal – deram luz verde a ele (assim como parte do dinheiro de seus investidores). Alguns meses depois que Blair e Clinton fizeram sua peregrinação às ensolaradas e regulamentadas Bahamas, um dos sócios da Sequoia ofereceu um endosso ofegante à SBF e à sua exchange de criptomoedas. “Das bolsas que conhecemos e analisamos”, ela escreveu, “algumas delas tinham problemas regulatórios, algumas já eram públicas. E então havia Sam. E o FTX, que, na opinião da Sequoia, era “goldilocks perfeito”.

E então, de repente, não era. Na verdade, estava efetivamente falido. E tinha sido administrado, disse o administrador contratado para resolver a bagunça, usando os princípios contábeis da fraternidade – o que meio que se encaixava no estilo de alfaiataria da SBF. Os milhares de idiotas de enriquecimento rápido que investiram suas economias em várias bolsas FTX, no entanto, não ficaram impressionados e podem até agora ter que penhorar seus ternos feitos à mão.

Tudo isso é normal para o raquete de criptografia, exceto por duas coisas. A primeira é que a SBF é um altruísta eficaz proclamado, ou seja, um crente que o imperativo moral mais importante é fazer montes de dinheiro para que se possa doá-lo para fazer o bem. A segunda é que ele é um assinante confirmado do “longtermismo” – a ideia de que o futuro distante deve receber pelo menos tanto peso quanto o presente na tomada de decisões morais e políticas. Só em 2022 ele teve, segundo o Economistacanalizou mais de US$ 130 milhões para o movimento por meio do FTX Future Fund, uma organização sem fins lucrativos que concede subsídios a projetos que visam garantir o futuro da humanidade a longo prazo.

Essa estranha convergência de uma filosofia de doação filantrópica com uma preocupação com o risco existencial para o futuro da humanidade é intrigante. As raízes filosóficas remontam a Peter Singer, um filósofo moral australiano que ensina em Princeton e agora se descreve como um “utilitarista hedonista”. Ele é famoso (entre muitas outras coisas) por um ensaio de 1972, “Famine, Affluence and Morality”, no qual argumentava que as pessoas ricas são moralmente obrigadas a doar muito mais recursos para causas humanitárias do que é considerado normal nas culturas ocidentais.

O artigo de Singer teve um impacto que mudou a vida de William MacAskill, um estudante de filosofia em Cambridge e, como Nova iorquino O perfil dele coloca, o desviou “para uma trilha de moralismo rigoroso e intransigente” – o que, traduzido, significa muito desafiador de se conviver. Como estudante de pós-graduação em Oxford, ele doou a maior parte de sua bolsa, viveu muito frugalmente e iniciou uma cruzada moral chamada “altruísmo eficaz” (EA), a ideia de que as pessoas deveriam fazer o bem da maneira mais perspicaz, ambiciosa e não sentimental. maneira possível. Então, por exemplo, se você é um jovem graduado bem-intencionado se perguntando se deve trabalhar para uma instituição de caridade ou se tornar um estagiário em um banco de investimento, então o último é a maneira altruísta eficaz de fazer o bem, porque no final você terá muito mais pilhagem para distribuir.

Existem várias maneiras de olhar para isso. Em um nível, poderia ser apenas uma lavagem ética para salvar a consciência: fazer alguém se sentir bem enquanto ganha quantias colossais de dinheiro financiando a queima do planeta. Mas em um nível mais profundo, há uma vantagem obstinada nisso. Em vez de ser cruel para ser gentil, você precisa ser racional para maximizar os benefícios de sua caridade. Isso, presumivelmente, foi o que motivou alguns jovens fundos de hedge da Bridgewater a criar a GiveWell, um grupo sem fins lucrativos que tenta identificar as oportunidades de doação mais eficazes usando dados concretos em vez de emoções ou sentimentos morais. “Pesquisamos”, diz o site deles, “as instituições de caridade que mais salvam ou melhoram vidas por dólar”.

Se você quisesse um termo elegante para essa mentalidade, diria que é um desdobramento do utilitarismo chamado consequencialismo – caridade baseada não em princípios explicitamente morais, mas em avaliações pragmáticas das consequências de um presente. O que fará o maior bem para o maior número? E isso acabou sendo um estímulo para a safra atual de jovens bilionários da tecnologia que se tornaram obscenamente ricos ainda na casa dos 30 ou 40 anos e adoram exibir suas credenciais como tecnocratas superracionais. Essas são pessoas que não querem necessariamente ter seus nomes em prédios universitários antigos e chatos ou fazer doações para fundações e galerias de arte estabelecidas. Em vez disso, eles querem ser envolvido de alguma forma e ver seu dinheiro obtendo resultados e causando um impacto mensurável. Nerds com corações, você poderia dizer.

Não surpreendentemente, a pequena cruzada de MacAskill começou a atrair muito dinheiro deles – talvez chegando, alguns pensam, a mais de US$ 30 bilhões. Dustin Muskovitz foi um dos primeiros apoiadores. Ele foi cofundador do Facebook e um dos primeiros colaboradores da EA, descobrindo que a filosofia de MacAskill se alinhava perfeitamente com a Open Philanthropy, a fundação que ele criou com sua esposa para se especializar em “seleção de causas estratégicas”. À medida que o dinheiro do Vale do Silício entrava, o mesmo acontecia com a mentalidade de engenharia da indústria de tecnologia, obcecada por duas coisas: eficiência e otimização. Mas com eles também veio a obsessão do vale com o futuro de longo prazo da humanidade, seja na Terra, em Marte ou em algum outro local extraterrestre.

A essa altura, MacAskill era professor em Oxford, que também é um foco de interesse nesse futuro de longo prazo. Entre outras coisas, a universidade recebe Nick Bostrom e seu Future of Humanity Institute (FHI) e Nick Beckstead, um pesquisador associado do instituto que também foi diretor de programa da fundação Open Philanthropy de Moskovitz e, junto com MacAskill, membro do conselho da FTX’s Future Fund (do qual ele, com Beckstead e outros, renunciou rapidamente quando a notícia da implosão do SBF se espalhou). Essa guinada para o longotermismo foi então efetivamente selada pela publicação do livro de MacAskill O que devemos ao futuroargumentando que influenciar positivamente o futuro a longo prazo é uma prioridade moral fundamental de nosso tempo.

“Por mais estranho que pareça”, ele escreve a certa altura, “nós somos os antigos. Vivemos bem no começo da história, no passado mais distante.” Seu argumento é que, mesmo que a população mundial caísse 90%, e se não sobrevivêssemos mais do que a média das espécies de mamíferos (um milhão de anos), então 99,5% de toda a experiência humana ainda não foi vivida. Então, se pudermos evitar a catástrofe mencionada – um grande “se”, obviamente – então uma proporção impressionante do tempo da humanidade na Terra ainda está por vir.

O interessante é que MacAskill não está tão preocupado com uma catástrofe climática iminente quanto o resto de nós. O que mantém ele e seus co-evangelistas acordados à noite, ao que parece, são coisas como patógenos projetados maliciosamente ou máquinas “superinteligentes” descontroladas que não têm nossos interesses no coração, ou o que quer que tenham no coração. A implicação é que, embora devamos obviamente salvar o planeta e evitar as outras ameaças, a verdadeira razão para fazê-lo é que o fim da humanidade significaria que trilhões de vidas potencialmente felizes poderiam não ser vividas.

Neste ponto, duas perguntas vêm à mente. Primeiro, o que exatamente esse cara está fumando? E, em segundo lugar, o que está impulsionando esse foco no futuro de prazo infinitamente longo em detrimento de problemas mais imediatos e solúveis? Os interesses de quem estão sendo atendidos aqui? MacAskill se tornou o garoto-propaganda de alguma coisa; Mas o que é isso? Sem que percebêssemos, o longtermismo tornou-se um movimento bem financiado.

“É difícil exagerar o quão influente o longtermismo se tornou”, escreve um de seus críticos de longa data, Émile Torres. “Karl Marx, em 1845, declarou que o objetivo da filosofia não é apenas interpretar o mundo, mas transformá-lo, e é exatamente isso que os adeptos do longo prazo têm feito, com extraordinário sucesso. Considere que Elon Musk, que citou e endossou o trabalho de Bostrom, doou £ 1 milhão para a FHI por meio de sua organização irmã, o ainda mais grandiosamente chamado Future of Life Institute. Este foi co-fundado pelo empresário multimilionário de tecnologia Jaan Tallinn, que “não acredita que a mudança climática represente um risco existencial para a humanidade por causa de sua adesão à ideologia de longo prazo”.

Se um movimento coerente está de fato sendo construído em torno dessa filosofia de longo prazo, então uma razão para levá-la a sério é que já estivemos aqui antes – no que Philip Mirowski batizou de “coletivo de pensamento neoliberal”. Quando Hayek, Von Mises e companhia embarcaram em seu projeto para realinhar o mundo em linhas favoráveis ​​ao mercado, eles eram considerados excêntricos continentais. E agora suas ideias governam o mundo democrático. Keynes estava errado: a longo prazo, não estamos todos mortos.

o que estou lendo

Perdido na tradução
Por que o último modelo de linguagem grande da Meta sobreviveu apenas três dias online. Linda peça de Will Douglas Heaven no Revisão de Tecnologia do MIT sobre a arrogância incurável da indústria de tecnologia.

Ficando sóbrio
Gone Bad, Come to Life”, um post revelador do Substack de Justin EH Smith sobre fermentação, destilação, sobriedade – e “listas de desejos”.

Ponto alto
Building Fast and Slow: The Empire State Building”, o relato absorvente de Brian Potter no Substack sobre como o famoso edifício foi construído — no prazo e dentro do orçamento.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo