.
Uma equipe de pesquisa de várias instituições desenvolveu um chip óptico que pode treinar hardware de aprendizado de máquina.
Os aplicativos de aprendizado de máquina dispararam para US$ 165 bilhões anualmente, de acordo com um relatório recente da McKinsey. Mas, antes que uma máquina possa realizar tarefas de inteligência, como reconhecer os detalhes de uma imagem, ela deve ser treinada. O treinamento de sistemas modernos de inteligência artificial (IA), como o piloto automático da Tesla, custa vários milhões de dólares em consumo de energia elétrica e requer infraestrutura semelhante a um supercomputador. Esse crescente “apetite” de IA deixa uma lacuna cada vez maior entre o hardware do computador e a demanda por IA. Os circuitos integrados fotônicos, ou simplesmente chips ópticos, surgiram como uma possível solução para oferecer maior desempenho computacional, medido pelo número de operações realizadas por segundo por watt utilizado, ou TOPS/W. No entanto, embora tenham demonstrado operações centrais aprimoradas em inteligência de máquina usada para classificação de dados, os chips fotônicos ainda precisam melhorar o aprendizado de front-end real e o processo de treinamento de máquina.
O aprendizado de máquina é um procedimento de duas etapas. Primeiro, os dados são usados para treinar o sistema e, em seguida, outros dados são usados para testar o desempenho do sistema de IA. Em um novo artigo, uma equipe de pesquisadores da George Washington University, da Queens University, da University of British Columbia e da Princeton University decidiu fazer exatamente isso. Após uma etapa de treinamento, a equipe observou um erro e reconfigurou o hardware para um segundo ciclo de treinamento seguido de ciclos de treinamento adicionais até que um desempenho de IA suficiente fosse alcançado (por exemplo, o sistema é capaz de rotular corretamente os objetos que aparecem em um filme). Até agora, os chips fotônicos demonstraram apenas a capacidade de classificar e inferir informações dos dados. Agora, os pesquisadores tornaram possível acelerar a própria etapa do treinamento.
Essa capacidade adicional de IA faz parte de um esforço maior em torno de núcleos tensores fotônicos e outros circuitos integrados específicos de aplicativos fotônicos eletrônicos (ASIC) que alavancam a fabricação de chips fotônicos para aprendizado de máquina e aplicativos de IA.
“Este novo hardware acelerará o treinamento de sistemas de aprendizado de máquina e aproveitará o melhor que a fotônica e os chips eletrônicos têm a oferecer. É um grande salto para a aceleração de hardware de IA. Esses são os tipos de avanços de que precisamos no setor de semicondutores indústria conforme ressaltado pela Lei CHIPS recentemente aprovada.”
-Volker Sorger, professor de Engenharia Elétrica e de Computação na George Washington University e fundador da empresa iniciante Optelligence.
“O treinamento de sistemas de IA custa uma quantidade significativa de energia e pegada de carbono. Por exemplo, um único transformador de IA consome cerca de cinco vezes mais CO2 em eletricidade como um carro a gasolina gasta em sua vida. Nosso treinamento em chips fotônicos ajudará a reduzir essa sobrecarga.”
-Bhavin Shastri, Professor Assistente do Departamento de Física da Queens University
Fonte da história:
Materiais fornecidos por Universidade George Washington. Observação: o conteúdo pode ser editado quanto ao estilo e tamanho.
.