Ouvrir le menu principal

WatchGeneration

Recherche

Scanner en 3D un objet avec son iPhone n'a jamais été aussi simple grâce à iOS 17

Stéphane Moussie

mardi 17 octobre 2023 à 20:30 • 20

Réalité augmentée

À quelques mois du lancement du Vision Pro, Apple met les petits plats dans les grands en matière de réalité augmentée. Avec iOS 17, il devient possible de scanner facilement un objet en 3D rien qu'avec son iPhone. Comment ? C'est ce que nous allons détailler dans cet article.

L'API Object Capture disponible sur iOS 17

Autant le préciser tout de suite, scanner en 3D un objet avec son iPhone n'est pas complètement nouveau, il existe différentes méthodes depuis des années. Vous pouvez par exemple utiliser l'application RealityScan d'Epic Games qui va vous demander de prendre des dizaines de photos de l'objet avant de les envoyer vers ses serveurs pour les assembler en un modèle 3D. Autre solution proposée par Apple depuis iOS 15 et macOS Monterey : prendre un paquet de photos avec votre iPhone puis les transférer sur Mac pour que celui-ci les transforme en un modèle 3D grâce à l'API Object Capture.

Mais il y a une nouveauté récente qui change beaucoup de choses : l'API Object Capture est disponible sur iOS 17. Cela signifie qu'il devient possible de réaliser, avec les outils d'Apple, un processus complet de photogrammétrie sur iPhone et iPad. Plus besoin de transférer les photos sur Mac ou sur un serveur pour la composition du modèle 3D, tout se fait en local, sur un seul et même appareil.

Image Apple

Cette API est la base de la nouvelle fonction de scan 3D de Reality Composer, l'application d'Apple spécialisée dans la réalité augmentée, mais elle est aussi accessible aux applications tierces (on y reviendra). Pour pouvoir en tirer parti du côté utilisateur, il y a une condition qui écarte une partie du public : il faut un iPhone équipé d'un LiDAR, c'est-à-dire un iPhone 12 Pro, 13 Pro, 14 Pro ou 15 Pro. Même chose sur iPad, il faut un modèle équipé d'un LiDAR, à savoir un iPad Pro 2020 au minimum.

Apple requiert ce scanner 3D car il est mis à profit pour combler les lacunes des clichés en deux dimensions : si vous essayez de scanner une chaise de couleur uniforme rien qu'avec l'appareil photo, l'iPhone aura du mal à différencier le siège du dossier. En prenant en compte les données de profondeur enregistrées par la LiDAR, la modélisation 3D devient d'un coup beaucoup plus fiable. L'adjonction du LiDAR permet donc à l'API d'Apple de scanner plus d'objets qu'elle ne le faisait précédemment, même si certains (ceux qui sont réfléchissants ou transparents) posent toujours des difficultés.

Un essai avec Reality Composer

Proposée gratuitement par Apple, l'application Reality Composer est la solution standard pour scanner des objets en 3D grâce à l'API Object Capture d'iOS 17. Avant toute chose, pour réaliser efficacement la modélisation, il faut se trouver dans un environnement lumineux et pouvoir tourner autour de l'objet. Une fois qu'on a autorisé Reality Composer à accéder à l'appareil photo, on commence par pointer l'objet puis on forme une boîte virtuelle autour de lui.

Étapes préparatoires à la capture 3D avec Reality Composer

Quand la boîte englobe bien l'objet, on peut passer au processus de scan à proprement parler. Il faut tourner doucement autour de l'objet tout en faisant en sorte de le garder au centre de l'image. Contrairement à RealityScan qui demande de prendre des dizaines des photos manuellement, la capture est ici automatisée : les photos sont prises de manière transparente au fur et à mesure que l'on tourne autour du sujet.

Soutenez MacGeneration sur Tipeee

Cet article est réservé aux membres du Club iGen


Rejoignez la plus grande communauté Apple francophone et soutenez le travail d'une rédaction indépendante. Le Club iGen, c'est:

  • des articles de qualité rien que pour vous
  • un podcast exclusif
  • pas de publicité
  • un site dédié !

Précommandez le livre et rejoignez la fête

Un livre pour raconter 50 ans d'Apple, une journée à Lyon pour les célébrer ensemble.

Participez sur Ulule

Bon plan : les AirPods 4 à 109 € ou 149 € avec ANC, les meilleurs prix à ce jour

11:06

• 10


Huawei GT Runner 2 : un nouveau système d’antenne qui change la donne pour le GPS ?

27/02/2026 à 08:52

• 11


visionOS 26.3.1 : un petit correctif pour le sport sur Vision Pro

27/02/2026 à 06:51

• 2


Ouverture de l’iPhone aux montres tierces : ce qu’en pensent Garmin, Withings, Suunto et les autres

26/02/2026 à 16:51

• 4


Tim Cook confirme la présentation de nouveaux produits à partir de lundi

26/02/2026 à 15:16

• 56


Les AirPods Ultra compatibles avec Apple Intelligence et l'intelligence visuelle ?

26/02/2026 à 07:20

• 20


Apple repart, Huawei accélère : le marché des smartwatches rebondit en 2025

25/02/2026 à 12:01

• 10


Le bon plan du moment : l'Apple Watch Series 11 à seulement 349,95 € (-99 €)

25/02/2026 à 09:48

• 12


Des images des serveurs Private Cloud Compute d'Apple Intelligence (les « Xserve M5 ») 🆕

24/02/2026 à 12:00

• 59


Vision Pro : comment Apple s’échine à recréer des mondes 3D plus vrais que nature

24/02/2026 à 10:10

• 6


Apple Watch : pourquoi il ne faut pas négliger le réglage du poignet

24/02/2026 à 09:14

• 11


Apple transforme le ciel de Los Angeles en vitrine géante pour sa série Monarch

24/02/2026 à 07:43

• 20


Apple sort la deuxième bêta de tous les OS 26.4, avec quelques rares nouveautés 🆕

23/02/2026 à 19:47

• 36


Un Big Mac(intosh) Plus en vidéo, avec son clavier démesuré

23/02/2026 à 13:00

• 16


AsteroidOS 2.0 sauve les montres sous Wear OS de l'obsolescence logicielle

23/02/2026 à 11:50

• 4


Apple Glass : comment Cupertino compte doubler Meta sur le terrain des lunettes connectées

23/02/2026 à 06:30

• 41