iOS 16 apporte un nouveau menu pour les AirPods et l'audio spatial personnalisé
Apple a revu l'interface de gestion des AirPods dans iOS 16. Un nouvel onglet est mis en évidence dans les Réglages lorsque des écouteurs sont connectés, permettant de modifier l'ensemble des paramètres habituels (réduction de bruit, connexion au réseau Localiser, accessibilité…). Un ajout bien pratique qui fait gagner un peu de temps, car il fallait auparavant aller dans Bluetooth et appuyer sur le petit i à côté de ses AirPods.

Une image de l'appareil connecté s'affiche désormais en haut de l'onglet accompagné du niveau de batterie. Dans le cas des AirPods et AirPods Pro, on pourra également voir la charge restante au boîtier avant que les écouteurs n'aient été enlevés. Rappelons que l'écrin des AirPods n'est pas Bluetooth, ce qui fait que le pourcentage de batterie ne peut pas être indiqué en temps réel. Si ce changement est bienvenu, reste une petite déception : on ne peut toujours pas choisir de mettre à jour manuellement ses écouteurs. Notons que ce nouveau menu est aussi disponible avec certains appareils Beats.
Mais iOS 16 apporte surtout l'audio spatial personnalisé, qui promet d'améliorer la lecture de musique ou le visionnage de films en offrant une expérience plus précise. La fonction utilise la caméra TrueDepth du téléphone et il faudra un iPhone XS ou plus pour en profiter. Actuellement, cette nouveauté n'est pas disponible sur les iPad Pro avec Face ID.

La mise en place de cette fonction se trouve dans l'onglet AirPods des Réglages, rubrique « Set Up Personalized Spatial Audio » (le menu n'a pas encore été traduit). L'utilisateur est invité à refaire un scan de sa tête, puis à capturer un modèle de ses oreilles. Pour cela, il va devoir placer l'iPhone à droite et à gauche de sa tête le temps que la caméra capture l'empreinte.
Le procédé est simple sur papier, mais parfois un peu buggé : ça a fonctionné du premier coup sur mon iPhone 13 Pro, mais j'ai du m'y reprendre à plusieurs fois sur un iPhone 13 car iOS ne voulait pas scanner entièrement mon oreille. Au niveau de l'expérience, l'audio spatial est bel et bien amélioré même si la différence n'est pas sensationnelle sur mes AirPods Max.
Curieux de lire d’autres réactions sur ce sujet !
@Felix_
Je viens de le faire, j’avais complètement oublié l’option. C’est en lisant la News d’aujourd’hui que je m’en suis souvenu. Le son est en effet un chouya amélioré, mais on ne peut pas faire de test À/B car il faut refaire le profil à chaque fois 😒
Comme tu dis en effet, ce n’est pas pire en tout cas 😅
Moi je comprends pas l'interêt de cette fonction pour des Airpods Pro. Les embouts rentrant de le conduit auditif font que la forme de l'oreille impacte peu non ?
@NathanRDN
La forme des oreilles joue un role tres important pour la spatialisation. On a tous des oreilles différentes, avec des formes différentes, et qui modifie le son de façon différente en fonction de la provenance du son (les reflexions des sons dans l’interieur de l’oreille, avant d’arriver dans le canal auditif sont différentes pour chacun). En fonction de la forme de l’oreille et de la provenance du son, certaines fréquences vont être amplifiées ou diminués. Pour bien spatialiser un son pour une personne donnée, il faut prendre en compte la forme de sa tête et la forme de ses oreilles, et les mouvements de tête (et d’autres choses encore mais qui ont moins d’impact). Comme c’est compliqué de calculer toutes les réflexions du son dans l’oreille, on va plutôt enregistrer les modifications du son en fonction de la provenance du son pour tout un tas de tete et d’oreille. On met des micros dans les oreilles d’une personne, et on enregistre les modifications d’un son joué à différentes positions autours de la tête. On obtient des HRTF (head related transfer function) qu’on peut ensuite appliquer a n’importe quel son, pour le spatialiser a une position donnée. En scannant ses oreilles, apple propose très probablement de choisir automatiquement pour nous les hrtf enregistrés dans leur base de donnée, les plus adaptés/proches.
on dirait quand même des idées d'ingénieurs fous dingue parfois
"sisi, si on combine la caméra, le capteur 3d et des infras-sons en poussant à bout le module haptic alors on pourrait simuler une virtualisation de la spatialisat...me faut un scan des têtes! je vous fait un proto en python en 2h. à peine, zou !"
" L'utilisateur est invité à refaire un scan de sa tête, puis à capturer un modèle de ses oreilles "
Ouf 😮💨 j’ai eu peur qu’il faille faire un Scan d’autre chose 😁
Il aurait fallu utiliser le module grand angle et encore pas sur que ça rentre dans le cadre 😆
Bon j’exagère … juste un peut 🤪🤣
Pourquoi un iPhone X ne peut pas avoir cette fonctionnalités ? C’est la même caméra pourtant.
@Stylo_Rocheux
Le processeur joue forcément un rôle.. on personnalise un signal audio !
@Stylo_Rocheux
Neural Engine de 1ère gen pas assez puissant je suppose 🤷🏻♂️
L'audio spatial personnalisé c'est bon pour les haut parleur, pas les écouteurs lol
C’est un peu dommage que les iPad Pro ne puissent pas en bénéficier.
Je regarde TV+ sur mon iPad Pro 11” et non sur mon iPhone X🅂.
C’est dû à la bêta j’espère.
Ça existe déjà chez Sony et dans leur application pour certain de leurs casques. Elle propose un scan de votre oreille afin d’optimiser au mieux le rendu sonore.
Donc why not a voir
Les infos de personnalisation sont stockées dans l’iPhone ou dans les AirPods ?
Ça me paraîtrait important de le savoir, j’aimerais pas me retrouver avec un étalonnage « sur mesure » quand je les connecte à mon iPhone, et revenir à un étalonnage « de base » lorsque je les connecte à mon Mac.
@Rez2a
Ah, tu changes d’oreilles au passage ?
@DG33
Belle tentative mais je t’invite à relire ma question
Le mieux serait que ce soit lié au compte/profil de celui qui écoute, en particulier si un jour on a possibilité d’avoir plusieurs profils/utilisateurs sur un iPad par exemple
Il faut minimum un iPhone XS, est-ce que les Xr sont supportés?
@Faabb
Normalement oui il a aussi la puce a12
Ce qui serait bien dans l’onglet d’info des AirPods c’est l’état de la batterie.
Vous êtes encore en train de juger en conclusion, une bêta développeur ?
Merci MacG, encore un article inutile !
Ou alors, mettez des réserves quand vous concluez..
Toujours pas compris l'intérêt de l'audio spatial pour des contenus classiques, je trouve que ça dénature la musique et le son des vidéos.
@Mageekmomo
Apparemment ça dépend du mixage qui a été réalisé
@Mageekmomo
Perso pour les musiques qui ont des basses c’est fantastique. Ça ounz ounz bien comme il faut 😂
Mais effectivement ça « dénature », après d’un autre côté je trouve que ça donne une autre dimension à la musique. Je trouve la stéréo fade à côté perso sur certains titres. 😅