.
Os pesquisadores determinaram como construir modelos confiáveis de aprendizado de máquina que possam compreender equações complexas em situações do mundo real, usando muito menos dados de treinamento do que normalmente se espera.
Os pesquisadores, da Universidade de Cambridge e da Universidade Cornell, descobriram que para equações diferenciais parciais – uma classe de equações físicas que descrevem como as coisas no mundo natural evoluem no espaço e no tempo – os modelos de aprendizado de máquina podem produzir resultados confiáveis mesmo quando eles são fornecidos com dados limitados.
Seus resultados, relatados no Anais da Academia Nacional de Ciênciaspoderia ser útil para construir modelos de aprendizado de máquina mais eficientes em termos de tempo e custo para aplicações como engenharia e modelagem climática.
A maioria dos modelos de aprendizado de máquina exige grandes quantidades de dados de treinamento antes de começarem a retornar resultados precisos. Tradicionalmente, um ser humano anota um grande volume de dados – como um conjunto de imagens, por exemplo – para treinar o modelo.
“Usar humanos para treinar modelos de aprendizado de máquina é eficaz, mas também é demorado e caro”, disse o primeiro autor, Dr. Nicolas Boullé, do Instituto Isaac Newton de Ciências Matemáticas. “Estamos interessados em saber exatamente quantos dados realmente precisamos para treinar esses modelos e ainda assim obter resultados confiáveis”.
Outros pesquisadores conseguiram treinar modelos de aprendizado de máquina com uma pequena quantidade de dados e obter resultados excelentes, mas como isso foi conseguido não foi bem explicado. Para seu estudo, Boullé e seus coautores, Diana Halikias e Alex Townsend, da Universidade Cornell, concentraram-se em equações diferenciais parciais (PDEs).
“Os PDEs são como os blocos de construção da física: eles podem ajudar a explicar as leis físicas da natureza, como a forma como o estado estacionário é mantido em um bloco de gelo derretido”, disse Boullé, que é bolsista de pós-doutorado da Fundação INI-Simons. “Como são modelos relativamente simples, poderemos usá-los para fazer algumas generalizações sobre por que essas técnicas de IA têm tido tanto sucesso na física”.
Os pesquisadores descobriram que os PDEs que modelam a difusão têm uma estrutura que é útil para projetar modelos de IA. “Usando um modelo simples, você poderá aplicar parte da física que já conhece no conjunto de dados de treinamento para obter melhor precisão e desempenho”, disse Boullé.
Os pesquisadores construíram um algoritmo eficiente para prever as soluções de PDEs sob diferentes condições, explorando as interações de curto e longo alcance que acontecem. Isso permitiu que eles incluíssem algumas garantias matemáticas no modelo e determinassem exatamente quantos dados de treinamento eram necessários para obter um modelo robusto.
“Depende da área, mas para a física descobrimos que é possível fazer muito com uma quantidade muito limitada de dados”, disse Boullé. “É surpreendente quão poucos dados são necessários para obter um modelo confiável. Graças à matemática dessas equações, podemos explorar sua estrutura para tornar os modelos mais eficientes.”
Os investigadores dizem que as suas técnicas permitirão aos cientistas de dados abrir a “caixa negra” de muitos modelos de aprendizagem automática e conceber novos que possam ser interpretados por humanos, embora ainda sejam necessárias pesquisas futuras.
“Precisamos ter certeza de que os modelos estão aprendendo as coisas certas, mas o aprendizado de máquina para a física é um campo interessante – há muitas questões interessantes de matemática e física que a IA pode nos ajudar a responder”, disse Boullé.
.