Vision Pro : comment les applications visionOS fonctionnent-elles ?

Anthony Nelzin-Santos |

Le moment tant attendu est arrivé : Apple vient de lancer une nouvelle plateforme, la première en huit ans, entièrement consacrée à la « réalité mixte ». Le casque Vision Pro ne sera pas commercialisé avant le début de l’année prochaine, mais les développeurs vont devoir cravacher pour réimaginer leurs applications dans la nouvelle réalité d’Apple. Ce qui pose une question aussi simple que cruciale : comment les applications visionOS fonctionnent-elles ?

Une application iPad tout juste adaptée à visionOS. Image Apple/WatchGeneration.

Les applications s’ouvrent dans l’« espace partagé », centré autour de l’utilisateur, qui peut les réorganiser comme bon lui semble. Une application peut ouvrir une ou plusieurs fenêtres, qui sont des scènes SwiftUI, et agissent comme des plans bidimensionnels dans un espace tridimensionnel. Cela ne veut pas dire qu’elles sont plates : les éléments d’interface peuvent occuper plusieurs couches et les fenêtres peuvent ouvrir des « portails » vers des environnements 3D.


avatar Fennec72 | 

Dans le fond on s’approche de l’ordinateur que manipule Tom Cruise dans Minority Report.

avatar Lonesome Boy | 

@Fennec72

Mais là où c’est malin c’est que l’utilisateur n’a pas à rester les bras en l’air comme dans Minority Report, ce qui serait trop inconfortable au-delà de quelques dizaines de minutes d’utilisation.

Et sinon, rêvons un peu, le futur (lointain) de cette plateforme sera peut-être un device qu’on n’aura plus besoin de porter sur soi, mais qui projettera directement l’interface dans l’environnement de l’utilisateur.

avatar serenity | 

@Lonesome Boy

Quelques dizaines de minutes ? Rien que de rester les bras tendus deux-trois minutes fatiguent déjà beaucoup.

avatar Encoreplusgrincheux | 

@Fennec72

C’est EXACTEMENT a quoi je pensais. 😉

avatar serenity | 

Toujours aussi bien peaufiné et réfléchi. 👌 Curieux de savoir comment cette architecture logicielle et son ergonomie se compare à ce qui se fait ailleurs. Meta, Microsoft, HTC… Ils proposent quoi, eux ?

avatar Libella | 

Peut être suis-je passé à côté, mais sait-on ce qu’il en est concernant :
- l’ancrage des fenêtres (•) ?
- le partage de vues/fenêtres/objets (••) ?
- la délégation de calculs au Mac (•••) ?

(•) dans les vidéos de présentations, les utilisateurs sont relativement statiques, au mieux tournent-ils la tête ou se déplacent-ils très peu … Sera-t-il possible de « contextualiser le multitâche » ? Ex. dans un atelier, sur la table centrale, une appli, en se déplaçant au bureau, une autre appli, etc..

(••) sera-t-il possible de rendre visibles des fenêtres/objets à d’autres porteurs de casques présent dans la même pièce et dans le même état (leur positionnement dans l’espace par exemple). Cela permettrait de ne pas couper l’utilisateur du reste du monde qui l’entoure ( ce que nous vend Apple).

(•••) ils nous proposent, lorsque l’on ouvre son MacBook, de créer un écran fictif géant de celui-ci. Est-ce bien le Mac qui fait tout le boulot (les calculs) et le casque de « seulement » afficher cet écran ? Le casque est présenté comme un ordinateur à part entière (justifiant d’une certaine manière son prix), mais un ordinateur aux performances forcément limitées par rapport à nos machines fixes. Un système, où le casque pourrait également ne faire « qu’afficher » lui ouvrirait d’autres perspectives (en termes de puissance de calcul et à condition de posséder un autre mac…)

avatar mgbertrand | 

Maintenant on sait pourquoi les préférences système du Mac s’appellent réglages et ont adopté leur fonctionnement : pour passer d’un appareil à un autre. Du casque au Mac, et vice versa, la continuité.

CONNEXION UTILISATEUR