Un kit développeur et des ateliers pour tester les apps avec le Vision Pro
Apple va mettre les petits plats dans les grands pour aider les développeurs à créer des applications pour visionOS, la nouvelle plateforme d'« informatique spatiale » au cœur du Vision Pro. Ce n'est effectivement pas évident de concevoir des apps qui tiennent la route en réalité mixte, alors que le casque n'est pas disponible. Il ne le sera pas avant le début de l'année prochaine, et encore uniquement aux États-Unis.
Un kit développeur (SDK) va donc être mis à disposition des dévs pour qu'ils puissent tester leurs applications avec l'appareil, comme cela avait été cas le cas lors de la transition entre les puces Intel et Apple pour le Mac. Mais on comprend que la production du Vision Pro est délicate et qu'en attendant de pouvoir servir tous les développeurs qui le souhaitent, la Pomme va leur proposer, à partir du mois prochain, un système d'évaluation de leurs apps.
Les développeurs pourront donc demander une « évaluation de compatibilité » depuis le service App Review ; ils recevront en retour « un rapport sur l'apparence de l'app ou du jeu et sur son fonctionnement dans visionOS ». De quoi avoir une petite idée du bazar avant d'investir du temps et des ressources dans le développement d'une app complètement optimisée.
À cela s'ajoute des labos durant lesquels il sera possible d'expérimenter une app dans le casque. Ces ateliers auront lieu à Cupertino, Shanghai, Singapour, Tokyo et, plus près de nous, Londres et Munich.
Ça risque d’être vachement compliqué pour en avoir un, il va falloir montrer patte blanche, mais ça me rassure un peu.. Reste à voir les conditions/limitations…
Qqn a les specs technique de l’eye tracking ? Merci 🤓
@i'mMaC
C’est à dire?
@redchou
La resolution temporelle (fréquence d’acquisition) et spatiale (accuracy et précision)
@i'mMaC
Aucune info la dessus pour le moment et je sais pas si ce sera public.
Pas d’info sur la résolution des écrans, capteurs, etc…
Ils ont dit que les Apps n’auront pas accès à l’endroit où regarde l’utilisateur par exemple. Juste un rafraîchissement toutes les 12ms.
A voir si il y a plus d’infos sur les caractéristiques techniques dans le futur…
@redchou
Si c’est comme ARKit sur iOS, on pourra aller le tester dans Xcode
@i'mMaC
Oui, il faudra voir les limitations du SDK, je ne sais pas si c’est déjà dispo avec Xcode 15, il me semble que j’ai vu que le SDK serait dispo plus tard ce mois-ci.
Mais je n’ai pas fait attention de si il parlait du kit développeur ou juste du simulateur, etc…
@redchou
Merci en tout cas ;)
Ça me semble être la suite logique. On présente le produit pour pouvoir développer des apps autour du casque, et on parle vite du prix, histoire de s’adapter psychologiquement.
Ils avaient fait pareil avec l’Apple Watch, où on pouvait l’acheter avant sa sortie, et pour l’Apple TV, avec un devkit à 1€ sur tirage au sort, que j’ai toujours d’ailleurs.
Apple avait aussi fait ça pour les puces Apple Silicon avec un Mac Mini carburant à l’Ax (le processeur de l’iPhone de l’époque)
C’est xrOS ou visionOS qui est employé ?
Parce que la capture dans XCode indique xrOS et il me semble que durant le Keynote il était question de visionOS.
J’imagine déjà les gens dans rue avec leurs casque et plan qui indique le chemin en réalité augmentée. 😂😂😂
Le coup de la batterie portable c’est bien joué