Ciência e Tecnologia

O chatgpt pode não ser tão faminto como uma vez assumido

.

O ChatGPT, a plataforma de chatbot do OpenAI, pode não ser tão sedento de energia quanto uma vez assumida. Mas seu apetite depende amplamente de como o ChatGPT está sendo usado, e os modelos de IA que estão respondendo às consultas, de acordo com um novo estudo.

UM Análise recente Por Epoch AI, um Instituto de Pesquisa de IA sem fins lucrativos, tentou calcular quanta energia uma consulta típica de ChatGPT consome. UM estatística comumente citada É que o ChatGPT requer cerca de 3 watts de poder para responder a uma única pergunta ou 10 vezes mais do que uma pesquisa no Google.

Epoch acredita que é uma superestimação.

Usando o mais recente modelo padrão do OpenAI para ChatGPT, GPT-4O, como referência, a Epoch descobriu que a consulta média do ChatGPT consome cerca de 0,3 watts-hora-menos do que muitos eletrodomésticos.

“O uso de energia não é realmente grande coisa em comparação com o uso de aparelhos normais ou aquecimento ou resfriamento de sua casa ou dirigindo um carro”, disse Joshua You, analista de dados da Epoch, que conduziu a análise, à Strong The One.

O uso de energia da IA ​​- e seu impacto ambiental, em geral – é objeto de debate controverso, pois as empresas de IA procuram expandir rapidamente suas pegadas de infraestrutura. Na semana passada, um grupo de mais de 100 organizações publicou uma carta aberta pedindo à indústria de IA e aos reguladores para garantir que novos data centers de IA não esgotam recursos naturais e forçam os serviços públicos a confiar em fontes de energia não renováveis.

Você disse ao Strong The One que sua análise foi estimulada pelo que ele caracterizou como pesquisas anteriores desatualizadas. Você apontou, por exemplo, que o autor do relatório que chegou à estimativa de 3 watts assumiu que o OpenAI usou chips mais antigos e menos eficientes para executar seus modelos.

Epoch ai chatgpt energia consumo
Créditos da imagem:Epoch ai

“Eu já vi muito discurso público que reconheceu corretamente que a IA consumiria muita energia nos próximos anos, mas não descreveria com precisão a energia que estava indo para a IA hoje”, disse você. “Além disso, alguns dos meus colegas notaram que a estimativa mais relatada de 3 watts por consulta foi baseada em pesquisas bastante antigas e, com base em alguma matemática de guardanapo, parecia muito alta”.

Concedido, a figura de 0,3 watt-hour da época também é uma aproximação; O OpenAI não publicou os detalhes necessários para fazer um cálculo preciso.

A análise também não considera os custos adicionais de energia incorridos por recursos do ChatGPT, como geração de imagens ou processamento de entrada. Você reconheceu que as consultas ChatGPT “longas contribuições” – consultas com arquivos longos anexados, por exemplo – provavelmente consomem mais eletricidade adiantada do que uma pergunta típica.

Você disse que ele espera que o consumo inicial de energia do chatgpt aumente.

““[The] A IA ficará mais avançada, o treinamento dessa IA provavelmente exigirá muito mais energia, e essa futura IA pode ser usada com muito mais intensidade – lidando com muito mais tarefas e tarefas mais complexas do que como as pessoas usam o ChatGPT hoje ”, disse você.

Embora tenha havido avanços notáveis ​​na eficiência da IA ​​nos últimos meses, a escala na qual a IA está sendo implantada deve gerar uma enorme expansão de infraestrutura com fome de energia. Nos próximos dois anos, os data centers de IA podem precisar perto de toda a capacidade de potência de 2022 da Califórnia (68 GW), De acordo com um relatório RAND. Até 2030, o treinamento de um modelo de fronteira poderia exigir a potência equivalente ao de oito reatores nucleares (8 GW), previu o relatório.

Somente o ChatGPT atinge um número enorme – e em expansão – de pessoas, tornando o servidor exige igualmente enorme. O Openai, juntamente com vários parceiros de investimento, planeja gastar bilhões de dólares em novos projetos de data center de IA nos próximos anos.

A atenção do OpenAI-junto com o restante da indústria da IA-também está mudando para os chamados modelos de raciocínio, que geralmente são mais capazes em termos das tarefas que podem realizar, mas exigem mais computação para executar. Ao contrário de modelos como o GPT-4O, que respondem a consultas quase instantaneamente, raciocinando modelos “pensam” por segundos a minutos antes de responder, um processo que suga mais computação-e, portanto, poder.

“Os modelos de raciocínio assumirão cada vez mais tarefas que os modelos mais antigos não podem e gerar mais [data] Para fazer isso, e ambos exigem mais data centers ”, você disse.

O OpenAI começou a liberar modelos de raciocínio mais eficiente em termos de energia, como O3-Mini. Mas parece improvável, pelo menos neste momento, os ganhos de eficiência compensarão o aumento das demandas de energia do processo de “pensamento” dos modelos de raciocínio e do crescente uso de IA em todo o mundo.

Você sugeriu que as pessoas se preocupassem com os aplicativos de uso de energia da IA ​​Energy, como ChatGPT com pouca frequência ou modelos selecionados que minimizam a computação necessária – na medida em que seja realista.

“Você pode tentar usar modelos menores de IA como [OpenAI’s] GPT-4O-Mini “, você disse,” e os usa com moderação de uma maneira que requer processamento ou geração de uma tonelada de dados “.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo