.
Com essa etapa concluída, a Identidade MetaHuman é usada para interpretar o desempenho rastreando e resolvendo as posições do equipamento facial MetaHuman. O resultado é que cada expressão sutil é recriada com precisão em seu personagem alvo MetaHuman, independentemente das diferenças entre o ator e os recursos do MetaHuman. No Unreal Engine, você pode confirmar visualmente que a performance está chegando e comparar a Identidade MetaHuman animada com a filmagem do ator, quadro a quadro.
Outro benefício é que os dados da animação são limpos; as curvas de controle estão semanticamente corretas, ou seja, estão onde você esperaria que estivessem nos controles do equipamento facial – exatamente como estariam se tivessem sido criadas por um animador humano – tornando-as fáceis de ajustar se necessário para fins artísticos .
Como usamos uma Identidade MetaHuman desde o início, você pode ter certeza de que a animação que você criou hoje continuará a funcionar se você fizer alterações em seu MetaHuman no futuro ou se desejar usá-lo em qualquer outro MetaHumano.
Os recursos de processamento do MetaHuman Animator farão parte do plug-in MetaHuman para Unreal Engine, que, como o próprio mecanismo, pode ser baixado gratuitamente. Se você quiser usar um iPhone – o MetaHuman Animator funcionará com um iPhone 11 ou posterior – você também precisará do aplicativo gratuito Live Link Face para iOS, que será atualizado com alguns modos de captura adicionais para dar suporte a esse fluxo de trabalho.
Mal posso esperar para começar? Certifique-se de que você está inscrito no boletim informativo abaixo, e nós o avisaremos quando o MetaHuman Animator estiver disponível.
.