.
Uma pergunta que o ChatGPT não consegue responder: quanta energia você consome?
“Como um modelo de linguagem de IA, não tenho presença física nem consumo energia diretamente”, dirá, ou: “O consumo de energia associado às minhas operações está relacionado principalmente aos servidores e à infraestrutura usados para hospedar e executar o modelo.”
O Bardo do Google é ainda mais audacioso. “Minha pegada de carbono é zero”, afirma. Questionado sobre a energia que é consumida na sua criação e formação, responde: “não é de conhecimento público”.
Os programas de IA podem parecer incorpóreos. Mas eles são alimentados por redes de servidores em centros de dados em todo o mundo, que exigem grandes quantidades de energia para alimentar e grandes volumes de água para manter a refrigeração.
Como os programas de IA são tão complexos, eles exigem mais energia do que outras formas de computação. Mas o problema é – é incrivelmente difícil definir exatamente quanto.
Enquanto competem para construir modelos de IA cada vez mais sofisticados, empresas como a OpenAI – que criou o ChatGPT – Google e Microsoft não divulgarão agora quanta eletricidade e água são necessárias para treinar e executar seus modelos de IA, quais fontes de energia alimentam seus data centers , ou mesmo onde estão alguns de seus data centers.
A Meta, empresa controladora do Facebook, por exemplo, revelou no ano passado que estava construindo o que acreditava ser o supercomputador mais rápido do mundo, chamado AI Research SuperCluster (RSC). Mas não revelaria onde o supercomputador estava localizado ou como estava sendo alimentado.
Agora, enquanto a indústria de tecnologia corre para incorporar IA generativa em praticamente tudo – de e-mail e pesquisa a aplicativos de entrega de comida e serviços de saúde mental – especialistas e pesquisadores do setor alertam que o crescimento descontrolado da tecnologia pode ter um custo ambiental significativo.
“Esse uso exponencial de IA traz consigo a necessidade de mais e mais energia”, disse Sasha Luccioni, líder climática da empresa de IA Hugging Face. “E, no entanto, estamos vendo essa mudança de pessoas usando modelos generativos de IA apenas porque acham que deveriam, sem que a sustentabilidade seja levada em consideração.”

Luccioni é um dos poucos pesquisadores que tentaram avaliar as emissões geradas na criação de modelos específicos de IA.
Em um trabalho de pesquisa que ainda não foi revisado por pares, ela e seus co-autores calcularam a quantidade de energia usada para treinar o grande modelo de linguagem do próprio Hugging Face, Bloom, em um supercomputador; a energia usada para fabricar o hardware do supercomputador e manter sua infraestrutura; e a eletricidade usada para executar o programa depois de lançado. Eles descobriram que gerou cerca de 50 toneladas métricas de emissões de dióxido de carbono, o equivalente a cerca de 60 voos entre Londres e Nova York.
A pegada energética de Bloom é menor do que a de outros programas de IA generativa, estimam Luccioni e sua equipe, já que os supercomputadores de Bloom são alimentados por energia nuclear, que não produz emissões de carbono. Por outro lado, dados limitados publicamente disponíveis sugerem que cerca de 500 toneladas métricas de CO2 foram produzidas apenas no treinamento do modelo GPT3 do ChatGPT – o equivalente a mais de um milhão de milhas percorridas por carros movidos a gasolina, observaram os pesquisadores.
“Para o modelo mais recente do ChatGPT, GPT4, [OpenAI] não disse nada sobre quanto tempo foi treinado, onde foi treinado ou qualquer coisa sobre os dados que estão usando”, disse Luccioni. “Então, essencialmente, significa que é impossível estimar as emissões.”
Enquanto isso, os novos modelos de IA estão ficando maiores – e consomem mais energia. Modelos maiores exigem o uso de unidades de processamento gráfico (GPUs) cada vez mais poderosas e levam mais tempo para treinar – consumindo mais recursos e energia, disse Luccioni.
Ainda mais obscura é a quantidade de água consumida na criação e uso de vários modelos de IA. Os data centers usam água em sistemas de resfriamento evaporativo para evitar o superaquecimento do equipamento. Um estudo não revisado por pares, liderado por pesquisadores da UC Riverside, estima que o treinamento do GPT3 nos data centers de última geração da Microsoft nos EUA poderia ter consumido 700.000 litros (184.920,45 galões) de água doce.
Na ausência de dados públicos precisos, os pesquisadores tiveram que assumir a “eficácia do uso da água”, ou a proporção de energia que um data center usa e a água usada para mantê-lo refrigerado e funcionando, com base na média auto-relatada da Microsoft.
O número real de litros usados pode variar significativamente com base em onde e quando exatamente o GPT-3 foi treinado – no Arizona, muita água seria necessária para evitar o superaquecimento dos servidores, enquanto em Wyoming, um centro pode usar menos água. O design dos data centers específicos também pode afetar amplamente os números. Em vez de usar sistemas de resfriamento evaporativo com uso intensivo de água, um centro pode usar ar condicionado tradicional – que usa menos água, mas mais eletricidade.
O Google se tornou o primeiro gigante da tecnologia a divulgar seu uso de água em todo o mundo, mas forneceu números médios que ocultavam detalhes importantes sobre os impactos locais de seus data centers. Depois de uma longa batalha legal com o Oregonian, a cidade de Dalles, Oregon, divulgou dados mostrando que os datacenters do Google usavam um quarto do abastecimento de água da cidade.
Como a eficácia do uso de água de um projeto de IA pode ser usada para adivinhar sua capacidade de computação, as empresas querem manter seu uso de água em segredo, disse Shaolei Ren, professor associado de engenharia elétrica e de computação na UC Riverside. “Eles querem nos dar o mínimo de informações possível”, disse ele.
Em geral, as empresas tendem a construir centros de dados onde a energia é barata. Enquanto grandes empresas de tecnologia como Google e Microsoft lutam por uma meta de emissões líquidas zero, elas podem ser especialmente motivadas a construir em áreas onde a energia solar ou eólica é abundante – como o Arizona – mas a água é escassa.
Meta e OpenAI não responderam aos pedidos de comentário do Guardian. O Google e a Microsoft se recusaram a fornecer uma resposta oficial.
Quando os principais executivos das principais empresas de IA pediram regulamentação para evitar o “risco existencial” representado pela IA, isso estimulou a especulação sobre as ameaças que a superinteligência representava para a sociedade. Mas os pesquisadores alertaram que um dos riscos mais imediatos e pertinentes era o ambiental.
Se as empresas forem mais transparentes sobre os recursos naturais utilizados e as emissões de carbono liberadas na criação e uso de modelos de IA, elas poderão ajudar a abrir discussões sobre quando e como usar estrategicamente a IA generativa, disse Luccioni. Pode valer a pena o custo ambiental de usar a tecnologia de IA generativa no tratamento do câncer, mas um desperdício usá-la em outros casos.
E, no entanto, a IA generativa se tornou uma fixação. “Existe a ideia de que sua empresa está ultrapassada se você não a estiver usando”, disse Luccioni.
Há alguns meses, a OpenAI ofereceu acesso pago para incorporar o ChatGPT em seus aplicativos, e empresas como a Instacart, empresa de entrega de supermercado online, estão usando o recurso para personalizar listas de compras e recomendações de ingredientes. E no mês passado, o Google anunciou que incorporaria IA generativa no Gmail e na pesquisa – usando tecnologia exponencialmente mais complexa e com uso intensivo de energia para realizar essencialmente as mesmas tarefas. As empresas têm sugerido o uso de ferramentas semelhantes para detecção de fraudes bancárias, contestando modelos estatísticos que já são muito bons na detecção.
“É frustrante porque, na verdade, existem tantas abordagens e métodos de IA eficientes e de baixo impacto que as pessoas desenvolveram ao longo dos anos, mas as pessoas querem usar IA generativa para tudo”, disse Luccioni. “É como usar um microscópio para martelar um prego – pode funcionar, mas não é exatamente para isso que essa ferramenta foi feita.”
.