Vision Pro : comment les applications visionOS fonctionnent-elles ?
Le moment tant attendu est arrivé : Apple vient de lancer une nouvelle plateforme, la première en huit ans, entièrement consacrée à la « réalité mixte ». Le casque Vision Pro ne sera pas commercialisé avant le début de l’année prochaine, mais les développeurs vont devoir cravacher pour réimaginer leurs applications dans la nouvelle réalité d’Apple. Ce qui pose une question aussi simple que cruciale : comment les applications visionOS fonctionnent-elles ?

Les applications s’ouvrent dans l’« espace partagé », centré autour de l’utilisateur, qui peut les réorganiser comme bon lui semble. Une application peut ouvrir une ou plusieurs fenêtres, qui sont des scènes SwiftUI, et agissent comme des plans bidimensionnels dans un espace tridimensionnel. Cela ne veut pas dire qu’elles sont plates : les éléments d’interface peuvent occuper plusieurs couches et les fenêtres peuvent ouvrir des « portails » vers des environnements 3D.
Dans le fond on s’approche de l’ordinateur que manipule Tom Cruise dans Minority Report.
@Fennec72
Mais là où c’est malin c’est que l’utilisateur n’a pas à rester les bras en l’air comme dans Minority Report, ce qui serait trop inconfortable au-delà de quelques dizaines de minutes d’utilisation.
Et sinon, rêvons un peu, le futur (lointain) de cette plateforme sera peut-être un device qu’on n’aura plus besoin de porter sur soi, mais qui projettera directement l’interface dans l’environnement de l’utilisateur.
@Lonesome Boy
Quelques dizaines de minutes ? Rien que de rester les bras tendus deux-trois minutes fatiguent déjà beaucoup.
@Fennec72
C’est EXACTEMENT a quoi je pensais. 😉
Toujours aussi bien peaufiné et réfléchi. 👌 Curieux de savoir comment cette architecture logicielle et son ergonomie se compare à ce qui se fait ailleurs. Meta, Microsoft, HTC… Ils proposent quoi, eux ?
Peut être suis-je passé à côté, mais sait-on ce qu’il en est concernant :
- l’ancrage des fenêtres (•) ?
- le partage de vues/fenêtres/objets (••) ?
- la délégation de calculs au Mac (•••) ?
(•) dans les vidéos de présentations, les utilisateurs sont relativement statiques, au mieux tournent-ils la tête ou se déplacent-ils très peu … Sera-t-il possible de « contextualiser le multitâche » ? Ex. dans un atelier, sur la table centrale, une appli, en se déplaçant au bureau, une autre appli, etc..
(••) sera-t-il possible de rendre visibles des fenêtres/objets à d’autres porteurs de casques présent dans la même pièce et dans le même état (leur positionnement dans l’espace par exemple). Cela permettrait de ne pas couper l’utilisateur du reste du monde qui l’entoure ( ce que nous vend Apple).
(•••) ils nous proposent, lorsque l’on ouvre son MacBook, de créer un écran fictif géant de celui-ci. Est-ce bien le Mac qui fait tout le boulot (les calculs) et le casque de « seulement » afficher cet écran ? Le casque est présenté comme un ordinateur à part entière (justifiant d’une certaine manière son prix), mais un ordinateur aux performances forcément limitées par rapport à nos machines fixes. Un système, où le casque pourrait également ne faire « qu’afficher » lui ouvrirait d’autres perspectives (en termes de puissance de calcul et à condition de posséder un autre mac…)
Maintenant on sait pourquoi les préférences système du Mac s’appellent réglages et ont adopté leur fonctionnement : pour passer d’un appareil à un autre. Du casque au Mac, et vice versa, la continuité.