iOS 16 apporte un nouveau menu pour les AirPods et l'audio spatial personnalisé

Félix Cattafesta |

Apple a revu l'interface de gestion des AirPods dans iOS 16. Un nouvel onglet est mis en évidence dans les Réglages lorsque des écouteurs sont connectés, permettant de modifier l'ensemble des paramètres habituels (réduction de bruit, connexion au réseau Localiser, accessibilité…). Un ajout bien pratique qui fait gagner un peu de temps, car il fallait auparavant aller dans Bluetooth et appuyer sur le petit i à côté de ses AirPods.

Une image de l'appareil connecté s'affiche désormais en haut de l'onglet accompagné du niveau de batterie. Dans le cas des AirPods et AirPods Pro, on pourra également voir la charge restante au boîtier avant que les écouteurs n'aient été enlevés. Rappelons que l'écrin des AirPods n'est pas Bluetooth, ce qui fait que le pourcentage de batterie ne peut pas être indiqué en temps réel. Si ce changement est bienvenu, reste une petite déception : on ne peut toujours pas choisir de mettre à jour manuellement ses écouteurs. Notons que ce nouveau menu est aussi disponible avec certains appareils Beats.

Mais iOS 16 apporte surtout l'audio spatial personnalisé, qui promet d'améliorer la lecture de musique ou le visionnage de films en offrant une expérience plus précise. La fonction utilise la caméra TrueDepth du téléphone et il faudra un iPhone XS ou plus pour en profiter. Actuellement, cette nouveauté n'est pas disponible sur les iPad Pro avec Face ID.

La mise en place de cette fonction se trouve dans l'onglet AirPods des Réglages, rubrique « Set Up Personalized Spatial Audio » (le menu n'a pas encore été traduit). L'utilisateur est invité à refaire un scan de sa tête, puis à capturer un modèle de ses oreilles. Pour cela, il va devoir placer l'iPhone à droite et à gauche de sa tête le temps que la caméra capture l'empreinte.

Le procédé est simple sur papier, mais parfois un peu buggé : ça a fonctionné du premier coup sur mon iPhone 13 Pro, mais j'ai du m'y reprendre à plusieurs fois sur un iPhone 13 car iOS ne voulait pas scanner entièrement mon oreille. Au niveau de l'expérience, l'audio spatial est bel et bien amélioré même si la différence n'est pas sensationnelle sur mes AirPods Max.


avatar abalem | 

Curieux de lire d’autres réactions sur ce sujet !

avatar Félix Cattafesta | 
Je voulais faire un retour plus précis mais je n'ai pas l'oreille assez fine pour entrer dans les détails. Difficile de différencier ce qui relève de l'amélioration technique et du placebo ! Mais dans tous les cas le son n'est pas moins bon avec cette option, donc vous ne prenez aucun risque en l'activant 😄
avatar abalem | 

@Felix_

Je viens de le faire, j’avais complètement oublié l’option. C’est en lisant la News d’aujourd’hui que je m’en suis souvenu. Le son est en effet un chouya amélioré, mais on ne peut pas faire de test À/B car il faut refaire le profil à chaque fois 😒
Comme tu dis en effet, ce n’est pas pire en tout cas 😅

avatar NathanRDN | 

Moi je comprends pas l'interêt de cette fonction pour des Airpods Pro. Les embouts rentrant de le conduit auditif font que la forme de l'oreille impacte peu non ?

avatar machack | 

@NathanRDN

La forme des oreilles joue un role tres important pour la spatialisation. On a tous des oreilles différentes, avec des formes différentes, et qui modifie le son de façon différente en fonction de la provenance du son (les reflexions des sons dans l’interieur de l’oreille, avant d’arriver dans le canal auditif sont différentes pour chacun). En fonction de la forme de l’oreille et de la provenance du son, certaines fréquences vont être amplifiées ou diminués. Pour bien spatialiser un son pour une personne donnée, il faut prendre en compte la forme de sa tête et la forme de ses oreilles, et les mouvements de tête (et d’autres choses encore mais qui ont moins d’impact). Comme c’est compliqué de calculer toutes les réflexions du son dans l’oreille, on va plutôt enregistrer les modifications du son en fonction de la provenance du son pour tout un tas de tete et d’oreille. On met des micros dans les oreilles d’une personne, et on enregistre les modifications d’un son joué à différentes positions autours de la tête. On obtient des HRTF (head related transfer function) qu’on peut ensuite appliquer a n’importe quel son, pour le spatialiser a une position donnée. En scannant ses oreilles, apple propose très probablement de choisir automatiquement pour nous les hrtf enregistrés dans leur base de donnée, les plus adaptés/proches.

avatar oomu | 

on dirait quand même des idées d'ingénieurs fous dingue parfois

"sisi, si on combine la caméra, le capteur 3d et des infras-sons en poussant à bout le module haptic alors on pourrait simuler une virtualisation de la spatialisat...me faut un scan des têtes! je vous fait un proto en python en 2h. à peine, zou !"

avatar R-APPLE-R | 

" L'utilisateur est invité à refaire un scan de sa tête, puis à capturer un modèle de ses oreilles "

Ouf 😮‍💨 j’ai eu peur qu’il faille faire un Scan d’autre chose 😁
Il aurait fallu utiliser le module grand angle et encore pas sur que ça rentre dans le cadre 😆
Bon j’exagère … juste un peut 🤪🤣

avatar Stylo_Rocheux | 

Pourquoi un iPhone X ne peut pas avoir cette fonctionnalités ? C’est la même caméra pourtant.

avatar Elyandrah | 

@Stylo_Rocheux

Le processeur joue forcément un rôle.. on personnalise un signal audio !

avatar Nexon99 | 

@Stylo_Rocheux

Neural Engine de 1ère gen pas assez puissant je suppose 🤷🏻‍♂️

avatar ⚜Dan | 

L'audio spatial personnalisé c'est bon pour les haut parleur, pas les écouteurs lol

avatar Bruno de Malaisie | 

C’est un peu dommage que les iPad Pro ne puissent pas en bénéficier.
Je regarde TV+ sur mon iPad Pro 11” et non sur mon iPhone X🅂.
C’est dû à la bêta j’espère.

avatar doobiethedog | 

Ça existe déjà chez Sony et dans leur application pour certain de leurs casques. Elle propose un scan de votre oreille afin d’optimiser au mieux le rendu sonore.

Donc why not a voir

avatar Rez2a | 

Les infos de personnalisation sont stockées dans l’iPhone ou dans les AirPods ?
Ça me paraîtrait important de le savoir, j’aimerais pas me retrouver avec un étalonnage « sur mesure » quand je les connecte à mon iPhone, et revenir à un étalonnage « de base » lorsque je les connecte à mon Mac.

avatar DG33 | 

@Rez2a

Ah, tu changes d’oreilles au passage ?

avatar Rez2a | 

@DG33

Belle tentative mais je t’invite à relire ma question

avatar GerApp38 | 

Le mieux serait que ce soit lié au compte/profil de celui qui écoute, en particulier si un jour on a possibilité d’avoir plusieurs profils/utilisateurs sur un iPad par exemple

avatar Faabb | 

Il faut minimum un iPhone XS, est-ce que les Xr sont supportés?

avatar macbook60 | 

@Faabb

Normalement oui il a aussi la puce a12

avatar hervemac | 

Ce qui serait bien dans l’onglet d’info des AirPods c’est l’état de la batterie.

avatar Elyandrah | 

Vous êtes encore en train de juger en conclusion, une bêta développeur ?

Merci MacG, encore un article inutile !
Ou alors, mettez des réserves quand vous concluez..

avatar Mageekmomo | 

Toujours pas compris l'intérêt de l'audio spatial pour des contenus classiques, je trouve que ça dénature la musique et le son des vidéos.

avatar klouk1 | 

@Mageekmomo

Apparemment ça dépend du mixage qui a été réalisé

avatar Nexon99 | 

@Mageekmomo

Perso pour les musiques qui ont des basses c’est fantastique. Ça ounz ounz bien comme il faut 😂

Mais effectivement ça « dénature », après d’un autre côté je trouve que ça donne une autre dimension à la musique. Je trouve la stéréo fade à côté perso sur certains titres. 😅

CONNEXION UTILISATEUR