Un kit développeur et des ateliers pour tester les apps avec le Vision Pro

Mickaël Bazoge |

Apple va mettre les petits plats dans les grands pour aider les développeurs à créer des applications pour visionOS, la nouvelle plateforme d'« informatique spatiale » au cœur du Vision Pro. Ce n'est effectivement pas évident de concevoir des apps qui tiennent la route en réalité mixte, alors que le casque n'est pas disponible. Il ne le sera pas avant le début de l'année prochaine, et encore uniquement aux États-Unis.

Un kit développeur (SDK) va donc être mis à disposition des dévs pour qu'ils puissent tester leurs applications avec l'appareil, comme cela avait été cas le cas lors de la transition entre les puces Intel et Apple pour le Mac. Mais on comprend que la production du Vision Pro est délicate et qu'en attendant de pouvoir servir tous les développeurs qui le souhaitent, la Pomme va leur proposer, à partir du mois prochain, un système d'évaluation de leurs apps.

Les développeurs pourront donc demander une « évaluation de compatibilité » depuis le service App Review ; ils recevront en retour « un rapport sur l'apparence de l'app ou du jeu et sur son fonctionnement dans visionOS ». De quoi avoir une petite idée du bazar avant d'investir du temps et des ressources dans le développement d'une app complètement optimisée.

Le simulateur de Xcode comprend des « scènes synthétiques » permettant de tester ses apps dans un environnement 3D.

À cela s'ajoute des labos durant lesquels il sera possible d'expérimenter une app dans le casque. Ces ateliers auront lieu à Cupertino, Shanghai, Singapour, Tokyo et, plus près de nous, Londres et Munich.


avatar redchou | 

Ça risque d’être vachement compliqué pour en avoir un, il va falloir montrer patte blanche, mais ça me rassure un peu.. Reste à voir les conditions/limitations…

avatar i'mMaC | 

Qqn a les specs technique de l’eye tracking ? Merci 🤓

avatar redchou | 

@i'mMaC

C’est à dire?

avatar i'mMaC | 

@redchou

La resolution temporelle (fréquence d’acquisition) et spatiale (accuracy et précision)

avatar redchou | 

@i'mMaC

Aucune info la dessus pour le moment et je sais pas si ce sera public.
Pas d’info sur la résolution des écrans, capteurs, etc…
Ils ont dit que les Apps n’auront pas accès à l’endroit où regarde l’utilisateur par exemple. Juste un rafraîchissement toutes les 12ms.
A voir si il y a plus d’infos sur les caractéristiques techniques dans le futur…

avatar i'mMaC | 

@redchou

Si c’est comme ARKit sur iOS, on pourra aller le tester dans Xcode

avatar redchou | 

@i'mMaC

Oui, il faudra voir les limitations du SDK, je ne sais pas si c’est déjà dispo avec Xcode 15, il me semble que j’ai vu que le SDK serait dispo plus tard ce mois-ci.
Mais je n’ai pas fait attention de si il parlait du kit développeur ou juste du simulateur, etc…

avatar i'mMaC | 

@redchou

Merci en tout cas ;)

avatar nova313 | 

Ça me semble être la suite logique. On présente le produit pour pouvoir développer des apps autour du casque, et on parle vite du prix, histoire de s’adapter psychologiquement.

Ils avaient fait pareil avec l’Apple Watch, où on pouvait l’acheter avant sa sortie, et pour l’Apple TV, avec un devkit à 1€ sur tirage au sort, que j’ai toujours d’ailleurs.

avatar PtitXav | 

Apple avait aussi fait ça pour les puces Apple Silicon avec un Mac Mini carburant à l’Ax (le processeur de l’iPhone de l’époque)

avatar F7rt | 

C’est xrOS ou visionOS qui est employé ?
Parce que la capture dans XCode indique xrOS et il me semble que durant le Keynote il était question de visionOS.

avatar garba50 | 

J’imagine déjà les gens dans rue avec leurs casque et plan qui indique le chemin en réalité augmentée. 😂😂😂
Le coup de la batterie portable c’est bien joué

CONNEXION UTILISATEUR