.
O Google está trabalhando com a Universidade de Harvard em um programa de pesquisa médica usando recursos de nuvem pública em vez de um supercomputador para executar simulações em grande escala.
A pesquisa em questão envolve simulações para uma nova abordagem para desobstruir artérias no combate a doenças cardíacas. A complexidade das simulações e a quantidade de dados que exigem toneladas de computação. Tanto, de fato, que apenas alguns supercomputadores no mundo seriam adequados.
Obter acesso a esses supers para pesquisas em larga escala pode ser difícil, mas o programa destacará como os recursos da nuvem podem ser usados.
“Hoje, o nível de poder de computação necessário para executar simulações dessa complexidade e dessa escala está disponível apenas em um pequeno punhado de supercomputadores em todo o mundo”, disse o professor Petros Koumoutsakos em um comunicado.
Koumoutsakos é líder de pesquisa na Harvard John A Paulson School of Engineering and Applied Sciences (MAR), e é considerado o pioneiro no conceito de criação de gêmeos digitais para dispositivos terapêuticos em doenças circulatórias.
Neste caso, os dispositivos são flagelos artificiais controlados magneticamente, as caudas de bactérias em forma de chicote, e a pesquisa diz respeito ao uso deles para atacar e dissolver coágulos sanguíneos e células tumorais circulantes em vasos sanguíneos humanos.
As simulações envolvidas nesta pesquisa envolvem uma representação precisa de vasos sanguíneos complexos, fluxo sanguíneo e as ações dos flagelos artificiais controlados magneticamente, daí a necessidade de enormes quantidades de poder de computação, bem como conhecimento técnico significativo, que é onde o Google entra O Google também está patrocinando a pesquisa em conjunto com a empresa de investimentos Citadel Securities.
De acordo com Koumoutsako, o programa visa demonstrar que os recursos da nuvem pública podem ser aproveitados para lidar com simulações de grande escala e alta fidelidade para aplicações médicas.
“Ao fazer isso, esperamos mostrar que o acesso fácil a recursos de computação em nuvem amplamente disponíveis pode reduzir significativamente o tempo de solução, melhorar os recursos de teste e reduzir os custos de pesquisa para alguns dos problemas mais prementes da humanidade”.
Mas não é como se as cargas de trabalho de computação de alto desempenho (HPC) já não fossem operadas rotineiramente em ambientes de nuvem pública. Nossos colegas em A Próxima Plataforma publicou um pequeno livro “O estado da nuvem HPC” em 2016, por exemplo. Então, o que há de diferente nisso?
Em resposta a perguntas de Strong The Oneo tecnólogo chefe do Google Cloud para HPC, Bill Magro, disse: “Esta pesquisa é o início de uma jornada para levar a escala de HPC baseada em nuvem ao extremo, a fim de resolver alguns dos cálculos mais complexos do mundo e avançar na pesquisa de doenças cardíacas. Em Nesta fase, é fundamental para nós validarmos a abordagem científica, a infraestrutura tecnológica e a escalabilidade da abordagem geral.”
De acordo com o Google, as demonstrações até agora usaram as instâncias de computação otimizadas para cargas de trabalho do Google Cloud, que, segundo ele, são configuradas para atender às necessidades de cargas de trabalho HPC de vários nós e fortemente acopladas.
As simulações foram executadas em clusters de máquinas virtuais, implantadas usando o HPC Toolkit do Google Cloud, mas não parecem ter usado nenhum tipo de acelerador de hardware, como GPUs, que são comumente usados para acelerar cálculos complexos em aplicativos HPC.
Apesar disso, o professor Koumoutsakos e sua equipe afirmam que os testes iniciais demonstraram a capacidade de atingir 80% do desempenho disponível em instalações de supercomputadores dedicados usando código extensivamente ajustado. Entende-se que esses testes usaram dois tipos de códigos HPC: um que teria sido finalista do prêmio Gordon Bell em 2015 e o LAMMPS (Large-scale Atomic/Molecular Massively Parallel Simulator) de código aberto, usado para simulações de partículas.
(Um dos finalistas do prêmio Gordon Bell em 2015 foi “Modelos Massivamente Paralelos do Sistema Circulatório Humano”, com pesquisa liderada por Amanda Randles, da Duke University, e uma equipe de colaboradores do Lawrence Livermore National Laboratory e da IBM.)
O analista-chefe da Omdia, Roy Illsley, disse que a afirmação de Harvard de 80% da eficácia de um supercomputador dedicado é realista, mas dependeria dos aplicativos em questão.
Isso ocorre porque o HPC não é um aplicativo único, mas uma ampla gama de cargas de trabalho que impõem diferentes demandas aos recursos da infraestrutura de computação.
“Digamos que eles estejam corretos, que para esses aplicativos (que é o ponto-chave aqui) a nuvem era quase tão boa quanto um HPC. O problema, a meu ver, é: esses aplicativos são típicos ou o Google fez o que fez com o anúncio do computador quântico que fez há alguns anos, escolheu algo em que sabe que é bom, enquanto a maioria dos outros casos de uso não foi comprovado?
Mas a grande questão é se a execução de cargas de trabalho de simulação tão grandes na nuvem é mais econômica do que simplesmente reservar tempo em um supercomputador ou criar um cluster HPC local para ele. Nem o Google nem Harvard estavam preparados para divulgar os custos, no entanto, o que nos sugere que não é barato. ®
.