ARKit 4 ancre encore plus la réalité augmentée dans le monde réel

Stéphane Moussie |

Incroyable mais vrai, Apple a oublié de faire de la retape pour la réalité augmentée lors du keynote de la WWDC 2020. Que les nombreux amateurs d'AR se rassurent, il y a toutefois des nouveautés dans le domaine, des nouveautés importantes même.

Ancres de localisation

ARKit 4 introduit des ancres de localisation qui permettent de placer du contenu en réalité augmentée dans le monde réel, avec de vraies coordonnées géographiques. Ainsi, les différents utilisateurs d'une même app pourront voir le même objet virtuel à la même place dans le monde réel, comme une statue virtuelle dans une rue. ARCore, l'équivalent d'ARKit chez Google, dispose d'un système d'ancres similaire.

Le système d'ancres de localisation d'ARKit 4 demande au minimum un iPhone XS ou XR, sans doute car il exploite des procédés de machine learning afin de déterminer où se trouve précisément l'appareil dans l'environnement.

Ces ancres ne fonctionneront que dans certaines villes américaines pour commencer (San Francisco, New York, Los Angeles, Chicago, Miami et d'autres à venir cet été), car elles ont besoin de données géographiques précises disponibles dans Plans.

API de profondeur

ARKit 4 apporte également une API supplémentaire. Sorti en même temps que les iPad Pro 2020 équipés d'un LiDAR, ARKit 3.5 permettait aux développeurs d'exploiter la carte topographique (API Scene Geometry) d'une pièce avec ses différents éléments (plancher, murs, plafond, fenêtres, portes, chaises…). ARKit 4 rend disponible l'API qui sous-tend cette fonction, l'API de profondeur (Depth API).

Grâce aux données de profondeur, les applications de réalité augmentée pourront se montrer plus précises pour placer les objets ou gérer l'occlusion sur les terminaux équipés d'un LiDAR — seulement les iPad Pro 2020 pour l'heure, mais l'iPhone devrait y avoir droit un jour.

Suivi du visage sur l'iPhone SE 2020 et les autres appareils A12 sans TrueDepth

La fonction de suivi du visage, qui sert notamment aux Memoji, n'a plus besoin de caméra TrueDepth du moment que l'appareil est équipé d'une puce A12. Apple cite uniquement l'iPhone SE 2020 en exemple, mais cela devrait aussi concerner l'iPad Air 3 et l'iPad mini 5.

Cette nouveauté va dans le sens des rumeurs parlant de futurs iPhone sans Face ID : ces iPhone pourraient faire une croix sur la caméra TrueDepth (Face ID serait remplacé par un Touch ID plus moderne sous l'écran), sans toutefois perdre des fonctions annexes, comme les Memojis. À moins que cette avancée ne serve aux Mac équipés de puces Apple.

Mise à jour : précision sur la compatibilité de la fonction Face Tracking.

Tags
avatar Furious Angel | 

La photo de l’article 👌🏻

avatar bidibout | 

Ce titre 😎

avatar Malouin | 

Top...
Apple reprend la main et laboure de nouveaux terrains de jeux.
Vivement demain !

avatar Lecorbubu | 

Étant architecte je trouve que l’arrivée des ancres positionnant des objets sur des coordonnées géographiques est très prometteuse.
Côté logiciel ça fait déjà des années qu’on conçoit nos bâtiment en les géopositionnant très précisément, ici c’est la promesse de voir arriver très prochainement la possibilité d’observer son projet In Situ.

Qu’ils s’agissent de Autodesk ou Nemetscheck, pour ne citer qu’eux, ils pourraient très rapidement prendre en charge ces API, on pourrait alors via l’hébergement Cloud donner accès aux modèles de manière plus ou moins étendu aux différents acteurs du projet. Et arrivé au chantier il serait tout à fait possible d’insérer un QR code (ou autre) sur le panneau de chantier que le tout venant pourrait scanner et voir alors le bâtiment à venir, se déplacer autours utile pour prendre connaissance d’un projet. Un scénario utile pour les recours de tiers, contrôle des architectes des bâtiments de France, ou autorisation administratives relatives à l’urbanisme. Petit bonus au passage : avec App Clip nul besoin de télécharger les App des éditeurs de logiciels.

Au départ tout ceci se ferait via l’iPhone et puis dans quelques années... Via les Glass. Futur quand tu nous tiens !

avatar Kriskool | 

@Lecorbubu

« Très prochainement » vous êtes optimistes ! A la vitesse où Plans est amélioré en France .... 😒 puisque les ancres sont dépendantes de Plans.

avatar Lecorbubu | 

@Kriskool

Il n’y a que guère cela qui manquerait, car comme évoqué plus tôt la plupart du chemin est maintenant déjà réalisé aussi bien du côté d’Apple que des développeurs de CAO.

Mais vous avez raison mon enthousiasme a eu raison de l’emploi du conditionnel qui aurait sans doute été plus raisonnable !

avatar romainB84 | 

« La fonction de suivi du visage, qui sert notamment aux Memoji, n'a plus besoin de caméra TrueDepth du moment que l'appareil est équipé d'une puce A12. Cela concerne uniquement l'iPhone SE 2020 pour l'heure, mais il serait très étonnant qu'Apple ait fait cette avancée uniquement pour lui. »

Pas éligible iPad Air 3 ou iPad mini 5 du coup?

avatar Simbapple | 

@romainB84

En théorie ils devraient l’être ayant une puce A12 tous les deux 🤞🤞🤞
Après ce n’est qu’une 1ère béta tout n’est pas encore en place dans iOS 14 et iPadOS 14 ainsi que watchOS 7 et macOS Big Sur.
Attendons de voir les futures béta sûrement remplie en nouveautés 🤞

avatar romainB84 | 

@Simbapple

Yep

avatar Stéphane Moussie | 
@romainB84 : si, effectivement, même si Apple ne cite que l'iPhone SE 2020 en exemple, je vais le préciser pour ces deux iPad.
avatar MeTe0R_ | 

Du génie

avatar gafa and chill | 

Géniale la photo d’illustration 😂

avatar Mac13 | 

Voilà je savais pertinemment que le FaceID est moins pratique que Touch ID. L'important c'est de bien toucher ce qui est valeureux...

avatar Lestat1886 | 

@Mac13

Le plus pratique serait les deux, chacun ayant des avantages et des inconvénients. Ça serait un retour en arrière s’ils supprimaient face id, même en le remplaçant par un nouveau touch id (après la disparition de 3d touch au profit de haptic touch, ça commencerait à faire beaucoup de fausses améliorations...)

CONNEXION UTILISATEUR