Skip to main content

24 Mar, 2023

MetaHuman Animator pour des animations faciales faciles et portables !!!

MetaHuman Animator pour des animations faciales faciles et portables !!!

Vous aimez la fidélité visuelle des MetaHumains mais vous avez du mal à rendre leurs animations faciales tout aussi crédibles ? Un nouvel ensemble de fonctionnalités MetaHuman va bientôt changer tout cela. Et vous avez peut-être déjà le matériel nécessaire dans votre poche.

MetaHuman Animator vous permettra d’utiliser votre iPhone ou votre caméra stéréo montée sur casque (HMC) pour reproduire n’importe quelle performance faciale sous forme d’animation haute fidélité sur des personnages MetaHuman. Avec lui, vous pourrez capturer l’individualité, le réalisme et la fidélité de la performance de votre acteur, et transférer chaque détail et nuance sur n’importe quel MetaHuman pour leur donner vie dans Unreal Engine.

Les humains numériques photoréalistes ont besoin d’une animation de haute qualité pour donner des performances vraiment crédibles, mais l’expertise et le temps nécessaires pour créer cela représentent un défi, même pour les créateurs les plus qualifiés. Il est incroyablement difficile pour les solutions de capture de performances existantes de recréer fidèlement chaque nuance de la performance de l’acteur sur votre personnage. Pour une animation vraiment réaliste, des animateurs qualifiés sont souvent tenus de peaufiner minutieusement les résultats dans ce qui est généralement un processus ardu et chronophage.

Mais cela est sur le point de changer !

Prévu pour sortir dans les prochains mois, MetaHuman Animator produira la qualité d’animation faciale requise par les développeurs de jeux AAA et les cinéastes hollywoodiens, tout en étant accessible aux studios indépendants et même aux amateurs. Avec l’iPhone que vous avez peut-être déjà dans votre poche et un trépied standard, vous pouvez créer une animation crédible pour vos MetaHumans qui établira des liens émotionnels avec votre public, même si vous ne vous considérez pas comme un animateur.

MetaHuman Animator fonctionne également avec n’importe quelle solution de capture HMC stéréo verticale professionnelle, y compris celles de Technoprops, offrant des résultats de qualité encore supérieure. Et si vous avez également un système de mocap pour la capture du corps, la prise en charge du code temporel par MetaHuman Animator signifie que l’animation de la performance faciale peut être facilement alignée avec la capture du mouvement du corps et l’audio pour offrir une performance complète du personnage. Il peut même utiliser l’audio pour produire une animation de langue convaincante.

Alors, comment ça marche?

La clé est de s’assurer que le système comprend l’anatomie unique du visage de l’acteur et comment cela devrait être lié à votre personnage cible. MetaHuman Animator commence par créer une identité MetaHuman de votre interprète : un maillage qui a la même topologie et partage le même rig standard que tous les MetaHumans.

Si vous avez utilisé Mesh to MetaHuman , vous saurez qu’une partie de ce processus crée une identité MetaHuman à partir d’un scan ou d’une sculpture 3D ; MetaHuman Animator s’appuie sur cette technologie pour permettre la création d’identités MetaHuman à partir d’une petite quantité de séquences capturées. Le processus ne prend que quelques minutes et ne doit être effectué qu’une seule fois pour chaque acteur.

Une fois cette étape terminée, l’identité MetaHuman est utilisée pour interpréter la performance en suivant et en résolvant les positions de la plate-forme faciale MetaHuman. Le résultat est que chaque expression subtile est recréée avec précision sur votre personnage cible MetaHuman, quelles que soient les différences entre l’acteur et les caractéristiques de MetaHuman. Dans Unreal Engine, vous pouvez confirmer visuellement la performance et comparer l’identité MetaHuman animée avec les images de l’acteur, image par image.

Un autre avantage est que les données d’animation sont propres ; les courbes de contrôle sont sémantiquement correctes, c’est-à-dire qu’elles se trouvent là où on s’attendrait à ce qu’elles se trouvent sur les commandes de la plate-forme faciale, tout comme elles le seraient si elles avaient été créées par un animateur humain, ce qui les rend faciles à ajuster si nécessaire à des fins artistiques .

Étant donné que nous utilisons une identité MetaHuman depuis le début, vous pouvez être sûr que l’animation que vous créez aujourd’hui continuera de fonctionner si vous apportez des modifications à votre MetaHuman à l’avenir, ou si vous souhaitez l’utiliser sur n’importe quel autre MétaHumain.

Les capacités de traitement de MetaHuman Animator feront partie du plugin MetaHuman pour Unreal Engine , qui, comme le moteur lui-même, est téléchargeable gratuitement. Si vous souhaitez utiliser un iPhone (MetaHuman Animator fonctionnera avec un iPhone 11 ou version ultérieure), vous aurez également besoin de l’ application gratuite Live Link Face pour iOS , qui sera mise à jour avec des modes de capture supplémentaires pour prendre en charge ce flux de travail.

https://www.unrealengine.com/en-US/blog/new-metahuman-animator-feature-set-to-bring-easy-high-fidelity-performance-capture-to-metahumans?mc_cid=aca49a1100&mc_eid=d64b444bd7

https://www.unrealengine.com/metahuman