.
A inteligência artificial não só proporciona um desempenho impressionante, mas também cria uma demanda significativa de energia. Quanto mais exigentes são as tarefas para as quais é treinado, mais energia consome. Víctor López-Pastor e Florian Marquardt, dois cientistas do Instituto Max Planck para a Ciência da Luz em Erlangen, Alemanha, apresentam um método pelo qual a inteligência artificial poderia ser treinada de forma muito mais eficiente. A sua abordagem baseia-se em processos físicos em vez das redes neurais artificiais digitais utilizadas atualmente.
A quantidade de energia necessária para treinar o GPT-3, o que torna o ChatGPT um Chatbot eloquente e aparentemente bem informado, não foi revelada pela Open AI, a empresa por trás dessa inteligência artificial (IA). De acordo com a empresa de estatísticas alemã Statista, isto exigiria 1000 megawatts-hora – quase o mesmo que 200 famílias alemãs com três ou mais pessoas consomem anualmente. Embora este gasto de energia tenha permitido ao GPT-3 saber se é mais provável que a palavra “profundo” seja seguida pela palavra “mar” ou “aprendizagem” nos seus conjuntos de dados, segundo todos os relatos, não compreendeu o significado subjacente de tal frases.
Redes neurais em computadores neuromórficos
A fim de reduzir o consumo de energia dos computadores, e particularmente das aplicações de IA, nos últimos anos várias instituições de investigação têm investigado um conceito inteiramente novo de como os computadores poderão processar dados no futuro. O conceito é conhecido como computação neuromórfica. Embora isto pareça semelhante às redes neurais artificiais, na verdade tem pouco a ver com elas, uma vez que as redes neurais artificiais funcionam em computadores digitais convencionais. Isto significa que o software, ou mais precisamente o algoritmo, é modelado de acordo com o modo de funcionamento do cérebro, mas os computadores digitais servem como hardware. Eles realizam as etapas de cálculo da rede neuronal em sequência, uma após a outra, diferenciando entre processador e memória.
“A transferência de dados entre esses dois componentes por si só consome grandes quantidades de energia quando uma rede neural treina centenas de bilhões de parâmetros, ou seja, sinapses, com até um terabyte de dados”, diz Florian Marquardt, diretor do Instituto Max Planck para a Ciência da Ciência. Light e professor da Universidade de Erlangen. O cérebro humano é totalmente diferente e provavelmente nunca teria sido evolutivamente competitivo se tivesse funcionado com uma eficiência energética semelhante à dos computadores com transistores de silício. Provavelmente teria falhado devido ao superaquecimento.
O cérebro é caracterizado por realizar as inúmeras etapas de um processo de pensamento em paralelo e não sequencialmente. As células nervosas, ou mais precisamente as sinapses, são processador e memória combinados. Vários sistemas em todo o mundo estão a ser tratados como possíveis candidatos às contrapartes neuromórficas das nossas células nervosas, incluindo circuitos fotónicos que utilizam luz em vez de electrões para realizar cálculos. Seus componentes servem simultaneamente como interruptores e células de memória.
Uma máquina física de autoaprendizagem otimiza suas sinapses de forma independente
Juntamente com Víctor López-Pastor, aluno de doutorado do Instituto Max Planck para a Ciência da Luz, Florian Marquardt desenvolveu agora um método de treinamento eficiente para computadores neuromórficos. “Desenvolvemos o conceito de máquina física de autoaprendizagem”, explica Florian Marquardt. “A ideia central é realizar o treinamento na forma de um processo físico, em que os parâmetros da máquina são otimizados pelo próprio processo”.
Ao treinar redes neurais artificiais convencionais, é necessário feedback externo para ajustar a força dos muitos bilhões de conexões sinápticas. “Não exigir esse feedback torna o treinamento muito mais eficiente”, afirma Florian Marquardt. Implementar e treinar uma inteligência artificial em uma máquina física de autoaprendizagem não só economizaria energia, mas também tempo de computação. “Nosso método funciona independentemente de qual processo físico ocorre na máquina de autoaprendizagem, e nem precisamos saber o processo exato”, explica Florian Marquardt. “No entanto, o processo deve cumprir algumas condições.” Mais importante ainda, deve ser reversível, o que significa que deve ser capaz de avançar ou retroceder com um mínimo de perda de energia.” “Além disso, o processo físico deve ser não linear, ou seja, suficientemente complexo”, diz Florian Marquardt. Apenas não linear os processos podem realizar as complicadas transformações entre dados de entrada e resultados. Uma bola de pinball rolando sobre um prato sem colidir com outro é uma ação linear. No entanto, se for perturbado por outro, a situação se torna não linear.
Teste prático em um computador neuromórfico óptico
Exemplos de processos reversíveis e não lineares podem ser encontrados na óptica. Na verdade, Víctor López-Pastor e Florian Marquardt já estão colaborando com uma equipe experimental no desenvolvimento de um computador neuromórfico óptico. Esta máquina processa informações na forma de ondas de luz sobrepostas, através das quais componentes adequados regulam o tipo e a força da interação. O objetivo dos pesquisadores é colocar em prática o conceito de máquina física de autoaprendizagem. “Esperamos poder apresentar a primeira máquina física de autoaprendizagem em três anos”, diz Florian Marquardt. Até então, deverá haver redes neurais que pensem com muito mais sinapses e sejam treinadas com quantidades de dados significativamente maiores do que as atuais.
Como consequência, provavelmente haverá um desejo ainda maior de implementar redes neurais fora dos computadores digitais convencionais e de substituí-las por computadores neuromórficos treinados de forma eficiente. “Estamos, portanto, confiantes de que as máquinas físicas de autoaprendizagem têm grandes chances de serem utilizadas no desenvolvimento da inteligência artificial”, afirma o físico.
.





