Ouvrir le menu principal

WatchGeneration

Recherche

Lens Studio utilise le LiDAR de l'iPhone 12 Pro pour l'AR de Snapchat

Mickaël Bazoge

mercredi 14 octobre 2020 à 20:30 • 31

Réalité augmentée

On souhaite au LiDAR de l'iPhone 12 Pro un meilleur sort que son prédécesseur de l'iPad Pro qui, pour le dire assez clairement, ne sert pas à grand chose en dehors d'usages très ponctuels ou pour certains professionnels. C'est un peu mieux engagé, Apple ayant non seulement vanté des expériences de réalité augmentée plus immersives, mais aussi une mise au point automatique plus rapide en basse lumière.

Une des premières applications à annoncer le support du LiDAR, c'est (évidemment, serait-on tenté de dire) Snapchat. Le capteur donne à la caméra de l'app des informations de maillage de l'espace qui permet aux Lenses (les filtres Snapchat) de mieux comprendre la géométrie des surfaces et des objets qui font face à l'utilisateur.

Pour l'occasion, le réseau social et Apple ont collaboré afin d'atteindre « un nouveau niveau de créativité pour la réalité augmentée », explique Eitan Pilipski, vice-président de la plate-forme caméra de Snap. Les créateurs pourront jouer avec le LiDAR de l'iPhone pour concevoir leurs Lenses, avec l'aide de Lens Studio 3.2 qui intègre un nouveau mode de prévisualisation.

Bonus : il n'est pas nécessaire d'avoir un iPhone 12 Pro pour créer des Lenses compatibles (ça va mieux en le disant). Et sur l'iPad Pro 2020 aussi, il est possible d'utiliser le LiDAR avec Snapchat, bien que l'app ne soit pas optimisée pour les grands écrans. Pour mettre le pied à l'étrier, Snap propose des templates à utiliser dans Lens Studio.

Soutenez MacGeneration sur Tipeee

Précommandez le livre et rejoignez la fête

Un livre pour raconter 50 ans d'Apple, une journée à Lyon pour les célébrer ensemble.

Participez sur Ulule

Le bon plan du moment : l'Apple Watch Series 11 à seulement 349,95 € (-99 €)

09:48

• 1


Bon plan : les AirPods 4 à 109 € ou 149 € avec ANC, les meilleurs prix à ce jour

24/02/2026 à 14:06

• 4


Des images des serveurs Private Cloud Compute d'Apple Intelligence (les « Xserve M5 ») 🆕

24/02/2026 à 12:00

• 32


Vision Pro : comment Apple s’échine à recréer des mondes 3D plus vrais que nature

24/02/2026 à 10:10

• 6


Apple Watch : pourquoi il ne faut pas négliger le réglage du poignet

24/02/2026 à 09:14

• 10


Apple transforme le ciel de Los Angeles en vitrine géante pour sa série Monarch

24/02/2026 à 07:43

• 17


Apple sort la deuxième bêta de tous les OS 26.4, avec quelques rares nouveautés 🆕

23/02/2026 à 19:47

• 34


Un Big Mac(intosh) Plus en vidéo, avec son clavier démesuré

23/02/2026 à 13:00

• 16


AsteroidOS 2.0 sauve les montres sous Wear OS de l'obsolescence logicielle

23/02/2026 à 11:50

• 4


Apple Glass : comment Cupertino compte doubler Meta sur le terrain des lunettes connectées

23/02/2026 à 06:30

• 41


Les Ray-Ban Meta, sujet de friction dans les zones réglementées

20/02/2026 à 19:30

• 60


Le métavers n'est pas un échec pour Meta, mais Horizon Worlds l'abandonne pour se tourner exclusivement vers le mobile

20/02/2026 à 12:05

• 43


Apple Event du 4 mars : et si Apple en profitait pour passer la cinquième sur la F1 et le Vision Pro ?

19/02/2026 à 21:20

• 15


Les lunettes Apple à écran intégré attendraient 2028

19/02/2026 à 15:54

• 15


Garmin : à l'heure où Apple abandonne Health+, son service fait un tabac

19/02/2026 à 07:30

• 41


Meta : Zuckerberg veut concurrencer l’Apple Watch dès cette année

19/02/2026 à 07:06

• 21