Les fonctions d’ARKit 3 limitées aux puces A12

Mickaël Bazoge |

Si les nouveautés se sont enchaînées à un rythme soutenu durant le keynote inaugural de la WWDC, Apple a donné un peu de mou au moment de dérouler les fonctions de réalité augmentée d’iOS 13. Quitte à subir un petit temps mort durant la démo de Minecraft Earth… Il faut dire qu’ARKit 3 a quelques atouts dans sa manche, à commencer par la possibilité pour un humain de passer derrière ou devant des objets virtuels.

La boîte à outils AR d’Apple permettra aux apps d’utiliser la caméra avant et arrière de l’iPhone simultanément (le visage de l’utilisateur capté à l’avant lui permettra d’interagir avec des objets en AR à l’arrière de l’appareil). ARKit 3 est également en mesure de traquer jusqu’à trois visages en même temps ; voilà qui multipliera les possibilités pour les Memojis et les apps comme Snapchat.

ARKit 3 contient aussi un outil de capture motion en temps réel : une app pourra enregistrer les mouvements d’un humain et les exploiter pour animer un personnage virtuel. Ces fonctions sont prometteuses et les applications qui s’en serviront ne manqueront pas d’épater leur petit monde. Mais pour en profiter, il faudra posséder un appareil équipé d’une puce A12 ou A12X et d'une caméra TrueDepth, à savoir les iPhone XS/XS Max et XR, ou les iPad Pro 2018. Seule exception, l’iPhone X (A11) saura traquer jusqu’à trois visages en même temps.

Accédez aux commentaires de l'article