Portrait-robot du casque de réalité virtuelle et augmentée d'Apple

Mickaël Bazoge |

En 2017, Apple se lançait à l'assaut de la réalité augmentée : iOS 11 inaugurait la première version d'ARKit, la « boîte à outils » dans laquelle les développeurs piochent pour concevoir leurs « expériences » de réalité augmentée. Depuis, le constructeur n'a cessé d'améliorer son API, qui en est à la version 4.

Chaque fois qu'il en a l'occasion, Tim Cook fait de la retape pour cette technologie (dernier exemple en date dans cette interview du New York Times). Mais si l'enthousiasme est toujours aussi présent du côté de Cupertino, du côté des utilisateurs, l'attrait a perdu de sa vigueur. La principale pierre d'achoppement, ce n'est pas la technologie en elle-même, mais la manière de s'en servir.


Source
Image d'accroche : Antonio De Rosa
avatar Michaeel | 

Vous ne pensez pas que le casque et la montre seront liés ? Le contrôleur / capteur au doigt pourrait bien se situer plutôt sur le poignet, non ?

avatar Valiran | 

@Michaeel

T’imagine la facture s’il faut en plus du casque la montre et le téléphone, puisque la montre a besoin d’un iPhone comme support ?

avatar fousfous | 

@Valiran

Parce que t'imagine que le casque n'aura de toute façon pas besoin de l'iPhone?
Ou en tout cas ça va s'adresser aux possesseurs d'appareils Apple qui ont en général déjà un iPhone voir une Apple Watch.

avatar Michaeel | 

@Valiran

Ah je me suis mal exprimé. La montre ne sera probablement pas indispensable, mais on peut imaginer qu’elle aura un rôle à jouer pour améliorer l’expérience. C’est un capteur qui pourrait certainement être utilisé par le casque.

avatar brunnno | 

@Valiran

Sans parler de la facture du mac qui va tourner à côté pour calculer les images...
Car je ne pense pas qu’on en soit encore arrivés à un casque autonome avec des caractéristiques sympa

avatar AlexG | 

@Michaeel

Oui ce serait pertinent je trouve.

avatar Idefix | 

On peut tout à fait imaginer un Apple TV équipé d'une puce M2X (monstre de puissance) et des lunettes AR qui vont avec : on obtient une plateforme de jeu au niveau des PS et Xbox ?
Non ?

avatar fousfous | 

@Idefix

Faudrait-il encore qu'Apple arrête de mettre une puce de second plan sur ses Apple TV.

avatar Idefix | 

Apple a bien changé, leurs puces Maison sont optimisées pour chaque appareil, rien n'empêche de concevoir un modele spécial jeux pour un Apple TV "Play".

avatar fosterj | 

Ça serait sexy de voir chaque soir les graphiques de la 6e vague Covid19 en réalité augmentée ! On se rendrait mieux compte 🤓

avatar anton96 | 

@fosterj

La data vr ça a l’air trop bien n’empêche

avatar John McClane | 

@fosterj

Avec la voix de Castex dans les AirPods
J’ai hâte 😜

avatar Pobla Picossa | 

« Ce concept baptisé Apple View a été réalisé par le designer Antonio De Rosa à partir du masque de plongée du Commandant Cousteau.
Un bonnet rouge connecté serait également prévu. »

avatar BLM | 

«leur position est tellement proche des yeux qu'il est impossible de ne pas voir les pixels.»
Où plus exactement, leur position est tellement proche […] qu’il est impossible de __ __ voir les pixels (ou de voir quoique ce soit d.ailleurs}! Essayez de regarder votre téléphone à 2cm de distance. Un œil "normal" voit flou en dessous de ~25cm (un peu moins pour les très jeunes ou les myopes, beaucoup plus chez les presbytes).
Donc tous ces dispositifs de lunettes AR/VR fabriquent (par un jeu de lentilles fonctionnant en loupe et/ou des réflexions) une image "virtuelle" (au sens optique, rien à voir avec la virtualité du monde représenté) placée bien au-delà de 25cm, le mieux serait à l’infini pour ne pas provoquer de fatigue oculaire.
D’où alors vient l’apparence pixellisée?
- l’œil humain "standard" voit comme séparés 2 pts écartés de 1’ d’angle, soit e=73μm (0,07mm à 25cm. Le diamètre d’1 cheveu ~0,1mm et c’est déjà très petit)
- l’image est donc pixellisée à 25cm si sa résolution est inférieure à 1/e = 138px/cm = 350ppi.
Ce qui est la résolution standard des imprimantes, ou des 1er iPhones.
Pour améliorer le rendu des arrondis (l’œil ne voit pas individuellement les px du crénelage, mais perçoit qu’un "truc" n’est pas parfait) les imprimantes montent à 600dpi (ce qui ne sert à rien sur 1 image qui bouge).

Comme je le disais, je pense que sur ces lunettes, l’image sera observée comme si elle était au moins à 5-10 m (~l’infini pour l’œil), avec 1 résolution alors de 18ppi, mais fabriquée par agrandissement homothétique à partir d’un écran placé à ~3cm de l’œil qui devra avoir 1 résolution de …2911ppi ! (0,0087mm entre centres des pixels) Ouch !!
Ce qui pour des écrans "plein format" 24x36mm ferait une définition de 2750x4125=12Mpx (Ce qui fait 36 M sous-pixels). Re-ouch!
Bon, on sait faire cette densité de composants, quand il s’agit de capteurs. La technologie est-elle au point pour des émetteurs de lumière ?
Ce qui me paraît problématique est la puissance de calcul et le débit de données. À 25 img/s pour 2 images de 36Mspx chacun codé sur un octet, il faut… 1,8GB/s !

La solution viendra certainement du fait
• que notre œil n’a pas le même pouvoir séparateur ds l’axe et hors axe, et de très très loin. On ne sépare 2 pts écartés de 1’ que dans une zone très limitée de notre champ de vision : quelques mn d’angle, tout le reste est de plus en plus flou (de moins en moins bien résolu) qd on s’éloigne de l’axe du regard
• et que la restitution d’une image binoculaire n’est nécessaire que sur environ 50 % de notre champ visuel total.

Conclusion :
–il faudra des écrans de résolution assez monstrueuse dans la direction du regard ;
– il faudra effectivement un système de suivi du regard très performant pour que la zone du champ visuel affichée avec une très bonne précision change (mais comme il est impossible de changer la résolution matérielle de l’écran de restitution, soit l’écran se décale devant le regard pour que ce soit toujours la même zone qui soit observée, soit c’est la totalité de l’écran qui a une excellente résolution)
– il y aura ensuite un paquet de calculs pour dégrader l’affichage de la zone que nos yeux de toute façon percevront floue, et pour ne pas afficher inutilement en vision binoculaire ce qui ne serait vu que par un seul de nos yeux.

Normal que cela prenne autant de temps à concevoir, normal aussi que ça vaille un rein dans un premier temps.

avatar nifex | 

@BLM

Merci pour toutes ces infos!!

avatar BooBoo | 

Pourquoi ne pas imaginer un arceau comme pour le AirPods max ? il semble que le poids est bien réparti pour la tête et ne se fait pas ressentir !

avatar Rifilou | 

« Riccio, qui était déjà responsable des équipes chargées de l'appareil, le supervise désormais à temps plein alors que c'est Mike Rockwell, un ancien de Dolby, qui le gère au quotidien. »

J’ai l’impression qu’ils ont le même rôle dans ce que vous décrivez 😅 Quelle est la différence ?

avatar YetOneOtherGit | 

Un très beau produit MR français orienté B2B qui a beaucoup de points communs avec certaines des approches d’Apple et auquel Apple s’intéresse beaucoup :

https://lynx-r.com/

avatar Ro. | 

J’y crois moyen

avatar lesurfeurfou | 

La lecture de cet article me plonge dans ma lointaine jeunesse ou ces sujets étaient de la science fiction... passionnant !

avatar oomu | 

"même si on peut s'interroger sur les gains de productivité réels)."

UN PEU OUI !

déjà qu'on trouve à PEINE (très grosses peines) le gain pour le jeu vidéo... alors pour le boulot...

et c'est pas en me faisant tourner des plans bleus en 3D sur des tables blanches qu'on va me convaincre.. moi aussi je peux tourner un plan, regardez, je déroule mon papier sur la table, et voilà, je tourne le papier, tout pareil :)

avatar oomu | 

"la réalité mixte permet en substance d'interagir avec ces objets virtuels (Microsoft parle d'hologrammes pour l'HoloLens)."

aAAArrrr....assez avec ces vains mots définis par des commerciaux pour vous diversifier des bidules à acheter....

et "hologramme".. carrément.. pour un truc qui n'a aucun rapport avec un putain d'hologramme, tout ça parce que le mot fait coooool... et pourquoi pas nommer un ipod "hifi" parce que "hifi" ça fait trop cool (puis abandonner très vite ce produit tout pourri)...

et le prochain aspirateur intelligent à se cogner contre les murs on dira que c'est un "Droid" parce que trop cool R2D2....

pfff

avatar BLM | 

Je pensais à un truc : sans doute influencé par la forme plane devant les yeux proposée par quelques designers, J’ai supposé des écrans "plein format"… plans.
Or, des écrans plans devant les yeux, c’est l’assurance d’une vision "en tunnel" (il suffit de mettre ses mains "en jumelles" devant ses yeux, autour de ses lunettes de vue si on n’en a, pour ressentir que voir le monde à travers une fenêtre étroite n’est pas réaliste)
Si on veut une véritable immersion, il faudra que le dispositif d’affichage revienne sur les côtés du visage, presque jusqu’aux tempes, même si cet affichage latéral pourra avoir une résolution très dégradée pour simuler notre vision périphérique floue.

CONNEXION UTILISATEUR