Ouvrir le menu principal

WatchGeneration

Recherche

Scanner en 3D un objet avec son iPhone n'a jamais été aussi simple grâce à iOS 17

Stéphane Moussie

mardi 17 octobre 2023 à 20:30 • 20

Réalité augmentée

À quelques mois du lancement du Vision Pro, Apple met les petits plats dans les grands en matière de réalité augmentée. Avec iOS 17, il devient possible de scanner facilement un objet en 3D rien qu'avec son iPhone. Comment ? C'est ce que nous allons détailler dans cet article.

L'API Object Capture disponible sur iOS 17

Autant le préciser tout de suite, scanner en 3D un objet avec son iPhone n'est pas complètement nouveau, il existe différentes méthodes depuis des années. Vous pouvez par exemple utiliser l'application RealityScan d'Epic Games qui va vous demander de prendre des dizaines de photos de l'objet avant de les envoyer vers ses serveurs pour les assembler en un modèle 3D. Autre solution proposée par Apple depuis iOS 15 et macOS Monterey : prendre un paquet de photos avec votre iPhone puis les transférer sur Mac pour que celui-ci les transforme en un modèle 3D grâce à l'API Object Capture.

Mais il y a une nouveauté récente qui change beaucoup de choses : l'API Object Capture est disponible sur iOS 17. Cela signifie qu'il devient possible de réaliser, avec les outils d'Apple, un processus complet de photogrammétrie sur iPhone et iPad. Plus besoin de transférer les photos sur Mac ou sur un serveur pour la composition du modèle 3D, tout se fait en local, sur un seul et même appareil.

Image Apple

Cette API est la base de la nouvelle fonction de scan 3D de Reality Composer, l'application d'Apple spécialisée dans la réalité augmentée, mais elle est aussi accessible aux applications tierces (on y reviendra). Pour pouvoir en tirer parti du côté utilisateur, il y a une condition qui écarte une partie du public : il faut un iPhone équipé d'un LiDAR, c'est-à-dire un iPhone 12 Pro, 13 Pro, 14 Pro ou 15 Pro. Même chose sur iPad, il faut un modèle équipé d'un LiDAR, à savoir un iPad Pro 2020 au minimum.

Apple requiert ce scanner 3D car il est mis à profit pour combler les lacunes des clichés en deux dimensions : si vous essayez de scanner une chaise de couleur uniforme rien qu'avec l'appareil photo, l'iPhone aura du mal à différencier le siège du dossier. En prenant en compte les données de profondeur enregistrées par la LiDAR, la modélisation 3D devient d'un coup beaucoup plus fiable. L'adjonction du LiDAR permet donc à l'API d'Apple de scanner plus d'objets qu'elle ne le faisait précédemment, même si certains (ceux qui sont réfléchissants ou transparents) posent toujours des difficultés.

Un essai avec Reality Composer

Proposée gratuitement par Apple, l'application Reality Composer est la solution standard pour scanner des objets en 3D grâce à l'API Object Capture d'iOS 17. Avant toute chose, pour réaliser efficacement la modélisation, il faut se trouver dans un environnement lumineux et pouvoir tourner autour de l'objet. Une fois qu'on a autorisé Reality Composer à accéder à l'appareil photo, on commence par pointer l'objet puis on forme une boîte virtuelle autour de lui.

Étapes préparatoires à la capture 3D avec Reality Composer

Quand la boîte englobe bien l'objet, on peut passer au processus de scan à proprement parler. Il faut tourner doucement autour de l'objet tout en faisant en sorte de le garder au centre de l'image. Contrairement à RealityScan qui demande de prendre des dizaines des photos manuellement, la capture est ici automatisée : les photos sont prises de manière transparente au fur et à mesure que l'on tourne autour du sujet.

Soutenez MacGeneration sur Tipeee

Cet article est réservé aux membres du Club iGen


Rejoignez la plus grande communauté Apple francophone et soutenez le travail d'une rédaction indépendante. Le Club iGen, c'est:

  • des articles de qualité rien que pour vous
  • un podcast exclusif
  • pas de publicité
  • un site dédié !

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Promo : les AirPods Pro 3 à 219 € et les AirPods Max à 479 € avec jusqu'à 96 € de cash-back

13:05

• 1


Des Apple Watch Ultra reconditionnés à 371 €

10:22

• 0


Une Apple Watch SE surchauffe pendant la nuit et blesse sa propriétaire

07:46

• 74


Apple TV met en avant les humains derrière ses contenus dans une nouvelle vidéo

03/02/2026 à 17:27

• 11


Promo : le casque Soundcore Space Q45 à 99 €, son prix le plus bas

03/02/2026 à 14:49

• 1


AirPods Pro 3 : Apple rectifie son erreur, la Localisation précise améliorée fonctionne bien dès l’iPhone 15

03/02/2026 à 12:29

• 0


Tony Fadell rhabille Apple pour l'hiver (et lorgne sur le trône ?)

03/02/2026 à 08:27

• 40


iOS 26 et Garmin Connect : une nouvelle architecture pour une intégration en profondeur

03/02/2026 à 06:50

• 12


Apple met à jour iOS 16, watchOS 6, macOS Catalina, macOS Big Sur et d'autres

02/02/2026 à 21:06

• 21


Ce youtubeur espagnol s’est créé un studio qui ressemble à un Apple Store

02/02/2026 à 12:15

• 24


iOS 26.3 : grâce au DMA, les montres Garmin se prennent pour des Apple Watch

02/02/2026 à 06:48

• 31


Apple met en ligne une nouvelle vidéo filmée avec un iPhone 17 Pro, pour fêter le Nouvel An chinois

30/01/2026 à 19:11

• 18


Garmin : un bug déconnecte des millions de montres sur iPhone

30/01/2026 à 08:05

• 10


Wearables : les AirPods Pro 3 victimes de leur succès, l'Apple Watch en retrait

30/01/2026 à 07:20

• 29


Affaire Pilnacek : la Samsung Galaxy Watch, témoin clé d’une enquête relancée ?

29/01/2026 à 09:15

• 9


Premier déballage des AirTags 2

28/01/2026 à 15:07

• 15