Ouvrir le menu principal

WatchGeneration

Recherche

Scanner en 3D un objet avec son iPhone n'a jamais été aussi simple grâce à iOS 17

Stéphane Moussie

mardi 17 octobre 2023 à 20:30 • 20

Réalité augmentée

À quelques mois du lancement du Vision Pro, Apple met les petits plats dans les grands en matière de réalité augmentée. Avec iOS 17, il devient possible de scanner facilement un objet en 3D rien qu'avec son iPhone. Comment ? C'est ce que nous allons détailler dans cet article.

L'API Object Capture disponible sur iOS 17

Autant le préciser tout de suite, scanner en 3D un objet avec son iPhone n'est pas complètement nouveau, il existe différentes méthodes depuis des années. Vous pouvez par exemple utiliser l'application RealityScan d'Epic Games qui va vous demander de prendre des dizaines de photos de l'objet avant de les envoyer vers ses serveurs pour les assembler en un modèle 3D. Autre solution proposée par Apple depuis iOS 15 et macOS Monterey : prendre un paquet de photos avec votre iPhone puis les transférer sur Mac pour que celui-ci les transforme en un modèle 3D grâce à l'API Object Capture.

Mais il y a une nouveauté récente qui change beaucoup de choses : l'API Object Capture est disponible sur iOS 17. Cela signifie qu'il devient possible de réaliser, avec les outils d'Apple, un processus complet de photogrammétrie sur iPhone et iPad. Plus besoin de transférer les photos sur Mac ou sur un serveur pour la composition du modèle 3D, tout se fait en local, sur un seul et même appareil.

Image Apple

Cette API est la base de la nouvelle fonction de scan 3D de Reality Composer, l'application d'Apple spécialisée dans la réalité augmentée, mais elle est aussi accessible aux applications tierces (on y reviendra). Pour pouvoir en tirer parti du côté utilisateur, il y a une condition qui écarte une partie du public : il faut un iPhone équipé d'un LiDAR, c'est-à-dire un iPhone 12 Pro, 13 Pro, 14 Pro ou 15 Pro. Même chose sur iPad, il faut un modèle équipé d'un LiDAR, à savoir un iPad Pro 2020 au minimum.

Apple requiert ce scanner 3D car il est mis à profit pour combler les lacunes des clichés en deux dimensions : si vous essayez de scanner une chaise de couleur uniforme rien qu'avec l'appareil photo, l'iPhone aura du mal à différencier le siège du dossier. En prenant en compte les données de profondeur enregistrées par la LiDAR, la modélisation 3D devient d'un coup beaucoup plus fiable. L'adjonction du LiDAR permet donc à l'API d'Apple de scanner plus d'objets qu'elle ne le faisait précédemment, même si certains (ceux qui sont réfléchissants ou transparents) posent toujours des difficultés.

Un essai avec Reality Composer

Proposée gratuitement par Apple, l'application Reality Composer est la solution standard pour scanner des objets en 3D grâce à l'API Object Capture d'iOS 17. Avant toute chose, pour réaliser efficacement la modélisation, il faut se trouver dans un environnement lumineux et pouvoir tourner autour de l'objet. Une fois qu'on a autorisé Reality Composer à accéder à l'appareil photo, on commence par pointer l'objet puis on forme une boîte virtuelle autour de lui.

Étapes préparatoires à la capture 3D avec Reality Composer

Quand la boîte englobe bien l'objet, on peut passer au processus de scan à proprement parler. Il faut tourner doucement autour de l'objet tout en faisant en sorte de le garder au centre de l'image. Contrairement à RealityScan qui demande de prendre des dizaines des photos manuellement, la capture est ici automatisée : les photos sont prises de manière transparente au fur et à mesure que l'on tourne autour du sujet.

Soutenez MacGeneration sur Tipeee

Cet article est réservé aux membres du Club iGen


Rejoignez la plus grande communauté Apple francophone et soutenez le travail d'une rédaction indépendante. Le Club iGen, c'est:

  • des articles de qualité rien que pour vous
  • un podcast exclusif
  • pas de publicité
  • un site dédié !

MacGeneration a besoin de vous

Vous pouvez nous aider en vous abonnant ou en nous laissant un pourboire

Soutenez MacGeneration sur Tipeee

Revue de tests des Apple Watch SE 3, Series 11 et Ultra 3 : des fortunes très diverses

16:42

• 8


macOS Tahoe : Safari disparait de la partition de restauration (ou presque)

15:15

• 5


watchOS 26 apporte les notifications d’hypertension sur plusieurs Apple Watch

12:21

• 44


Faut-il craquer pour l’Apple Watch Ultra 3 ?

07:21

• 51


iOS 26 : les six nouveautés pour vos AirPods

15/09/2025 à 20:30

• 22


visionOS 26 est disponible en version finale

15/09/2025 à 19:12

• 10


watchOS 26 est disponible en version finale

15/09/2025 à 19:12

• 12


Revue de test des AirPods Pro 3 : une formule aboutie pour un mode traduction perfectible

15/09/2025 à 15:56

• 34


iOS 26 et macOS Tahoe 26 : Apple joue gros aujourd'hui avec Liquid Glass

15/09/2025 à 08:52

• 100


Les boites des nouveaux iPhone se montrent

15/09/2025 à 06:23

• 20


Apple propose enfin un éditeur de séances d’entraînement dans iOS 26

13/09/2025 à 07:30

• 49


iPhone 17, Apple Watch, AirPods Pro 3 : les délais sur l’Apple Store sont en majorité vers mi-octobre

12/09/2025 à 21:25

• 64


Précommandes pour les AirPods Pro 3, Apple Watch SE 3, Series 11 et Ultra 3

12/09/2025 à 18:07

• 24


Les Beats Powerbeats Pro 2 s'améliorent avec iOS 26 pour rattraper les AirPods Pro 3

12/09/2025 à 17:40

• 6


Protéger son iPhone 17 sans le dénaturer ? Une marque française a trouvé la solution 📍

12/09/2025 à 13:04

• 0


Le MacBook Air original s’est discrètement invité dans la présentation de l’iPhone Air

12/09/2025 à 09:49

• 26