Live Link Face : la solution mo-cap pour Unreal Engine avec un iPhone

Mickaël Bazoge |

Réaliser la capture de mouvement d'un visage pour un jeu vidéo est maintenant aussi facile que de posséder un iPhone équipé de Face ID. Epic a lancé Live Link Face, une application iOS qui capte les mouvements du visage de l'utilisateur grâce aux capteurs TrueDepth en façade du smartphone ; les données collectées, moulinées dans Unreal Engine, permettent de donner vie à un personnage de jeu vidéo. Il s'agit donc d'un outil pour les développeurs qui utilisent le moteur de rendu d'Epic.

L'application est toute simple (en apparence), elle enregistre les mouvements de l'acteur que l'on peut ensuite exporter sur son ordinateur. En plus de la vidéo à proprement parler, on obtient surtout un fichier .csv qui contient toutes les informations indispensables à la reproduction des mimiques par un personnage virtuel.

Mieux encore, il est possible d'animer un avatar en direct, idéal pour se faire une idée très rapidement d'une animation. On pourra aussi attacher l'iPhone à un acteur durant une séance de mo-cap. Les productions mieux dotées pourront même utiliser le protocole Open Sound Control qui permet à des applications externes de prendre le contrôle de Live Link Face à distance : les animateurs pourront lancer un enregistrement sur plusieurs iPhone pour collecter un maximum de données.

Accédez aux commentaires de l'article