Estudos/Pesquisa

Pesquisadores desenvolvem dispositivo de última geração para tornar a inteligência artificial mais eficiente em termos de energia

.

Pesquisadores de engenharia da Universidade de Minnesota Twin Cities demonstraram um dispositivo de hardware de última geração que pode reduzir o consumo de energia para aplicações de computação de inteligência artificial (IA) por um fator de pelo menos 1.000.

A pesquisa foi publicada em npj Computação Não Convencionalum periódico científico revisado por pares publicado pela Nature. Os pesquisadores têm várias patentes sobre a tecnologia usada no dispositivo.

Com a crescente demanda por aplicações de IA, pesquisadores têm buscado maneiras de criar um processo mais eficiente em termos de energia, mantendo o desempenho alto e os custos baixos. Comumente, processos de inteligência artificial ou de máquina transferem dados entre a lógica (onde as informações são processadas dentro de um sistema) e a memória (onde os dados são armazenados), consumindo uma grande quantidade de potência e energia.

Uma equipe de pesquisadores da Faculdade de Ciências e Engenharia da Universidade de Minnesota demonstrou um novo modelo em que os dados nunca saem da memória, chamado memória computacional de acesso aleatório (CRAM).

“Este trabalho é a primeira demonstração experimental de CRAM, onde os dados podem ser processados ​​inteiramente dentro do conjunto de memória sem a necessidade de sair da grade onde um computador armazena informações”, disse Yang Lv, pesquisador de pós-doutorado do Departamento de Engenharia Elétrica e de Computação da Universidade de Minnesota e primeiro autor do artigo.

A Agência Internacional de Energia (AIE) divulgou uma previsão global de uso de energia em março de 2024, prevendo que o consumo de energia para IA provavelmente dobrará de 460 terawatts-hora (TWh) em 2022 para 1.000 TWh em 2026. Isso é aproximadamente equivalente ao consumo de eletricidade de todo o Japão.

De acordo com os autores do novo artigo, estima-se que um acelerador de inferência de aprendizado de máquina baseado em CRAM alcance uma melhoria na ordem de 1.000. Outro exemplo mostrou uma economia de energia de 2.500 e 1.700 vezes em comparação aos métodos tradicionais.

Esta pesquisa levou mais de duas décadas para ser feita,

“Nosso conceito inicial de usar células de memória diretamente para computação, 20 anos atrás, foi considerado loucura”, disse Jian-Ping Wang, autor sênior do artigo e distinto professor McKnight e titular da Cátedra Robert F. Hartmann no Departamento de Engenharia Elétrica e de Computação da Universidade de Minnesota.

“Com um grupo de estudantes em evolução desde 2003 e uma verdadeira equipe de professores interdisciplinares formada na Universidade de Minnesota — desde física, ciência de materiais e engenharia, ciência da computação e engenharia, até modelagem e benchmarking e criação de hardware — conseguimos obter resultados positivos e agora demonstramos que esse tipo de tecnologia é viável e está pronta para ser incorporada à tecnologia”, disse Wang.

Esta pesquisa faz parte de um esforço coerente e duradouro, baseado na pesquisa inovadora e patenteada de Wang e seus colaboradores sobre dispositivos de Junções de Túnel Magnético (MTJs), que são dispositivos nanoestruturados usados ​​para melhorar discos rígidos, sensores e outros sistemas microeletrônicos, incluindo Memória Magnética de Acesso Aleatório (MRAM), que tem sido usada em sistemas embarcados, como microcontroladores e relógios inteligentes.

A arquitetura CRAM permite a verdadeira computação na e pela memória e quebra a barreira entre a computação e a memória como gargalo na arquitetura von Neumann tradicional, um projeto teórico para um computador de programa armazenado que serve de base para quase todos os computadores modernos.

“Como um substrato de computação em memória digital extremamente eficiente em termos de energia, o CRAM é muito flexível, pois a computação pode ser realizada em qualquer local na matriz de memória. Consequentemente, podemos reconfigurar o CRAM para melhor atender às necessidades de desempenho de um conjunto diversificado de algoritmos de IA”, disse Ulya Karpuzcu, especialista em arquitetura de computação, coautora do artigo e professora associada do Departamento de Engenharia Elétrica e de Computação da Universidade de Minnesota. “Ele é mais eficiente em termos de energia do que os blocos de construção tradicionais para os sistemas de IA de hoje.”

O CRAM realiza cálculos diretamente dentro das células de memória, utilizando a estrutura da matriz de forma eficiente, o que elimina a necessidade de transferências de dados lentas e que consomem muita energia, explicou Karpuzcu.

O dispositivo de memória de acesso aleatório de curto prazo, ou RAM, mais eficiente usa quatro ou cinco transistores para codificar um ou um zero, mas um MTJ, um dispositivo spintrônico, pode executar a mesma função em uma fração da energia, com maior velocidade e é resiliente a ambientes hostis. Os dispositivos spintrônicos aproveitam o spin dos elétrons em vez da carga elétrica para armazenar dados, fornecendo uma alternativa mais eficiente aos chips tradicionais baseados em transistores.

Atualmente, a equipe planeja trabalhar com líderes da indústria de semicondutores, incluindo aqueles em Minnesota, para fornecer demonstrações em larga escala e produzir o hardware para avançar a funcionalidade da IA.

Além de Lv, Wang e Karpuzcu, a equipe incluiu os pesquisadores do Departamento de Engenharia Elétrica e de Computação da Universidade de Minnesota, Robert Bloom e Husrev Cilasun; o distinto professor McKnight e presidente Robert e Marjorie Henle, Sachin Sapatnekar; e os ex-pesquisadores de pós-doutorado Brandon Zink, Zamshed Chowdhury e Salonik Resch; juntamente com pesquisadores da Universidade do Arizona: Pravin Khanal, Ali Habiboglu e o professor Weigang Wang.

Este trabalho foi apoiado por subsídios da US Defense Advanced Research Projects Agency (DARPA), National Institute of Standards and Technology (NIST), National Science Foundation (NSF) e Cisco Inc. Pesquisas incluindo padronização de nanodispositivos foram conduzidas em colaboração com o Minnesota Nano Center e trabalho de simulação/cálculo foi feito com o Minnesota Supercomputing Institute na University of Minnesota. Para ler o artigo de pesquisa completo intitulado “Demonstração experimental de memória de acesso aleatório computacional baseada em junção de túnel magnético”, visite o npj Computação Não Convencional local na rede Internet.

.

Mostrar mais

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo