Ouvrir le menu principal

WatchGeneration

Recherche

Scanner en 3D un objet avec son iPhone n'a jamais été aussi simple grâce à iOS 17

Stéphane Moussie

mardi 17 octobre 2023 à 20:30 • 20

Réalité augmentée

À quelques mois du lancement du Vision Pro, Apple met les petits plats dans les grands en matière de réalité augmentée. Avec iOS 17, il devient possible de scanner facilement un objet en 3D rien qu'avec son iPhone. Comment ? C'est ce que nous allons détailler dans cet article.

L'API Object Capture disponible sur iOS 17

Autant le préciser tout de suite, scanner en 3D un objet avec son iPhone n'est pas complètement nouveau, il existe différentes méthodes depuis des années. Vous pouvez par exemple utiliser l'application RealityScan d'Epic Games qui va vous demander de prendre des dizaines de photos de l'objet avant de les envoyer vers ses serveurs pour les assembler en un modèle 3D. Autre solution proposée par Apple depuis iOS 15 et macOS Monterey : prendre un paquet de photos avec votre iPhone puis les transférer sur Mac pour que celui-ci les transforme en un modèle 3D grâce à l'API Object Capture.

Mais il y a une nouveauté récente qui change beaucoup de choses : l'API Object Capture est disponible sur iOS 17. Cela signifie qu'il devient possible de réaliser, avec les outils d'Apple, un processus complet de photogrammétrie sur iPhone et iPad. Plus besoin de transférer les photos sur Mac ou sur un serveur pour la composition du modèle 3D, tout se fait en local, sur un seul et même appareil.

Image Apple

Cette API est la base de la nouvelle fonction de scan 3D de Reality Composer, l'application d'Apple spécialisée dans la réalité augmentée, mais elle est aussi accessible aux applications tierces (on y reviendra). Pour pouvoir en tirer parti du côté utilisateur, il y a une condition qui écarte une partie du public : il faut un iPhone équipé d'un LiDAR, c'est-à-dire un iPhone 12 Pro, 13 Pro, 14 Pro ou 15 Pro. Même chose sur iPad, il faut un modèle équipé d'un LiDAR, à savoir un iPad Pro 2020 au minimum.

Apple requiert ce scanner 3D car il est mis à profit pour combler les lacunes des clichés en deux dimensions : si vous essayez de scanner une chaise de couleur uniforme rien qu'avec l'appareil photo, l'iPhone aura du mal à différencier le siège du dossier. En prenant en compte les données de profondeur enregistrées par la LiDAR, la modélisation 3D devient d'un coup beaucoup plus fiable. L'adjonction du LiDAR permet donc à l'API d'Apple de scanner plus d'objets qu'elle ne le faisait précédemment, même si certains (ceux qui sont réfléchissants ou transparents) posent toujours des difficultés.

Un essai avec Reality Composer

Proposée gratuitement par Apple, l'application Reality Composer est la solution standard pour scanner des objets en 3D grâce à l'API Object Capture d'iOS 17. Avant toute chose, pour réaliser efficacement la modélisation, il faut se trouver dans un environnement lumineux et pouvoir tourner autour de l'objet. Une fois qu'on a autorisé Reality Composer à accéder à l'appareil photo, on commence par pointer l'objet puis on forme une boîte virtuelle autour de lui.

Étapes préparatoires à la capture 3D avec Reality Composer

Quand la boîte englobe bien l'objet, on peut passer au processus de scan à proprement parler. Il faut tourner doucement autour de l'objet tout en faisant en sorte de le garder au centre de l'image. Contrairement à RealityScan qui demande de prendre des dizaines des photos manuellement, la capture est ici automatisée : les photos sont prises de manière transparente au fur et à mesure que l'on tourne autour du sujet.

Cet article est réservé aux membres du Club iGen


Rejoignez la plus grande communauté Apple francophone et soutenez le travail d'une rédaction indépendante. Le Club iGen, c'est:

  • des articles de qualité rien que pour vous
  • un podcast exclusif
  • pas de publicité
  • un site dédié !

Rejoignez le Club iGen

Soutenez le travail d'une rédaction indépendante.

Rejoignez la plus grande communauté Apple francophone !

S'abonner

Humane arrête les frais : l’AI Pin disparaît immédiatement et l’entreprise est vendue à HP

08:15

• 42


Nos conseils pour acheter des produits Apple à prix réduit

17/02/2025 à 18:52

• 40


Que vaut le service de suppression de donnée en ligne Incogni ? Notre bilan après 12 mois d'utilisation 📍

17/02/2025 à 10:04


Avec visionOS 2.4, le Vision Pro devrait s'ouvrir à Apple Intelligence

16/02/2025 à 09:01

• 27


Tim Cook annonce un nouveau produit pour le 19 février

13/02/2025 à 22:15

• 118


Le Vision Pro pourrait être prochainement proposé par d’autres vendeurs

13/02/2025 à 10:07

• 15


Le tout nouveau haut-parleur de l’Apple Watch Series 10 pose problème à certains utilisateurs

11/02/2025 à 21:11

• 29


Week-end 100 % foot pour Tim Cook

11/02/2025 à 18:10

• 16


Beats lance les Powerbeats Pro 2 avec moniteur cardiaque et ANC

11/02/2025 à 16:06

• 12


Test des Powerbeats Pro 2 : réduction de bruit sur fond de rythme cardiaque

11/02/2025 à 16:00

• 30


Et pourquoi ne pas porter son Apple Watch à la cheville, après tout ?

11/02/2025 à 12:00

• 28


watchOS 11.3.1 et visionOS 2.3.1 sont disponibles

10/02/2025 à 19:33

• 2


Promo : l’AirPods Max USB-C un tout petit peu moins cher sur Amazon

10/02/2025 à 17:30

• 20


Aperture : une coque pleine de trous pour le Vision Pro signée Dbrand

10/02/2025 à 10:02

• 10


IKEA Home smart s’adapte à l’Apple Watch

10/02/2025 à 08:18

• 17


Promo : l'Apple Watch Ultra 2 en titane noir ou naturel dès 729 € (-170 €)

08/02/2025 à 15:45

• 4