L’écran de certaines Apple Watch peut scintiller, c’est un bug logiciel

Nicolas Furno |

Un bug dans watchOS 10 peut conduire l’écran de certaines Apple Watch à scintiller anormalement. C’est Apple en personne qui le signale, dans une fiche interne destinée aux réparateurs agréés que MacRumors a pu consulter. Ce mémo n’indique pas quels modèles peuvent être concernés, mais d’après les retours, cela semble surtout toucher les dernières générations, que ce soit les Series 9 ou l’Ultra 2. Je n’ai pas noté le problème sur mon exemplaire, mais si c’est votre cas, sachez que c’est un bug logiciel qui sera corrigé par une future mise à jour.

Photo WatchGeneration.

C’est le sens du mémo d’ailleurs, Apple demande aux réparateurs de ne pas accepter les montres concernées pour une réparation. Une mise à jour apportera un correctif et en attendant, le constructeur suggère aux clients gênés par le défaut de désactiver l’écran toujours allumé. D’après la fiche, le scintillement ne devrait alors plus apparaître et il sera bien sûr possible de réactiver la fonction après installation de la mise à jour correctrice.

On ne sait pas si la version 10.1 de watchOS, actuellement en bêta, contiendra le correctif, s’il viendra avant sa sortie ou s’il faudra au contraire attendre au-delà. Le même mémo d’Apple prévient d’un deuxième bug visuel, cette fois qui provoque un affichage de certaines complications en rose. On pouvait se douter que ce n’était pas un défaut matériel, mais on a la confirmation que l’entreprise est au courant et a prévu une correction.

Ces complications ne devraient pas être roses, c’est un bug de watchOS 10 qui sera corrigé ultérieurement (image MacRumors).

Lire les commentaires →

Apple ouvre des labs supplémentaires pour son Vision Pro, à New York et Sydney

Nicolas Furno |

Apple a manifestement entendu l’une des plaintes soulevées par les développeurs potentiellement intéressés par le Vision Pro. L’entreprise a en effet annoncé l’ouverture de nouveaux labs dans deux villes supplémentaires, à New York City aux États-Unis et à Sydney en Australie. Ces sessions qui permettent de tester le casque de réalité augmentée avec des prototypes d’apps se rapprochent ainsi des développeurs présents sur la côte est nord-américaine et en Océanie.

Image Apple.

New York et Sydney rejoignent ainsi Cupertino en Californie, Londres, Munich, Shanghai, Singapour et Tokyo qui étaient les lieux précédemment choisis par Apple pour héberger ces labs. Ne proposer qu’un seul emplacement sur la côte Ouest des États-Unis a toujours semblé un choix étrange et de nombreux développeurs s’en plaignaient et refusaient de traverser un continent entier pour ces sessions. Cela a peut-être joué dans le manque d’intérêt pour ces labs, si l’on en croit les bruits de couloir, même si la Pomme avait tenu à les contredire officiellement par la suite.

Les développeurs ne se précipiteraient pas sur les labs d’Apple dédiés au Vision Pro

Les développeurs ne se précipiteraient pas sur les labs d’Apple dédiés au Vision Pro

Apple : les développeurs sont emballés par les ateliers Vision Pro

Apple : les développeurs sont emballés par les ateliers Vision Pro

Succès ou pas, Apple cherche manifestement à se rapprocher des développeurs encore potentiellement intéressés par son casque. Si c’est votre cas, vous pouvez demander à y participer à cette adresse, sachant qu’une capture d’écran du simulateur de visionOS sera nécessaire pour montrer sur quoi vous travaillez.

Lire les commentaires →

Scanner en 3D un objet avec son iPhone n'a jamais été aussi simple grâce à iOS 17

Stéphane Moussie |

À quelques mois du lancement du Vision Pro, Apple met les petits plats dans les grands en matière de réalité augmentée. Avec iOS 17, il devient possible de scanner facilement un objet en 3D rien qu'avec son iPhone. Comment ? C'est ce que nous allons détailler dans cet article.

L'API Object Capture disponible sur iOS 17

Autant le préciser tout de suite, scanner en 3D un objet avec son iPhone n'est pas complètement nouveau, il existe différentes méthodes depuis des années. Vous pouvez par exemple utiliser l'application RealityScan d'Epic Games qui va vous demander de prendre des dizaines de photos de l'objet avant de les envoyer vers ses serveurs pour les assembler en un modèle 3D. Autre solution proposée par Apple depuis iOS 15 et macOS Monterey : prendre un paquet de photos avec votre iPhone puis les transférer sur Mac pour que celui-ci les transforme en un modèle 3D grâce à l'API Object Capture.

Mais il y a une nouveauté récente qui change beaucoup de choses : l'API Object Capture est disponible sur iOS 17. Cela signifie qu'il devient possible de réaliser, avec les outils d'Apple, un processus complet de photogrammétrie sur iPhone et iPad. Plus besoin de transférer les photos sur Mac ou sur un serveur pour la composition du modèle 3D, tout se fait en local, sur un seul et même appareil.

Image Apple

Cette API est la base de la nouvelle fonction de scan 3D de Reality Composer, l'application d'Apple spécialisée dans la réalité augmentée, mais elle est aussi accessible aux applications tierces (on y reviendra). Pour pouvoir en tirer parti du côté utilisateur, il y a une condition qui écarte une partie du public : il faut un iPhone équipé d'un LiDAR, c'est-à-dire un iPhone 12 Pro, 13 Pro, 14 Pro ou 15 Pro. Même chose sur iPad, il faut un modèle équipé d'un LiDAR, à savoir un iPad Pro 2020 au minimum.

Apple requiert ce scanner 3D car il est mis à profit pour combler les lacunes des clichés en deux dimensions : si vous essayez de scanner une chaise de couleur uniforme rien qu'avec l'appareil photo, l'iPhone aura du mal à différencier le siège du dossier. En prenant en compte les données de profondeur enregistrées par la LiDAR, la modélisation 3D devient d'un coup beaucoup plus fiable. L'adjonction du LiDAR permet donc à l'API d'Apple de scanner plus d'objets qu'elle ne le faisait précédemment, même si certains (ceux qui sont réfléchissants ou transparents) posent toujours des difficultés.

Un essai avec Reality Composer

Proposée gratuitement par Apple, l'application Reality Composer est la solution standard pour scanner des objets en 3D grâce à l'API Object Capture d'iOS 17. Avant toute chose, pour réaliser efficacement la modélisation, il faut se trouver dans un environnement lumineux et pouvoir tourner autour de l'objet. Une fois qu'on a autorisé Reality Composer à accéder à l'appareil photo, on commence par pointer l'objet puis on forme une boîte virtuelle autour de lui.

Étapes préparatoires à la capture 3D avec Reality Composer

Quand la boîte englobe bien l'objet, on peut passer au processus de scan à proprement parler. Il faut tourner doucement autour de l'objet tout en faisant en sorte de le garder au centre de l'image. Contrairement à RealityScan qui demande de prendre des dizaines des photos manuellement, la capture est ici automatisée : les photos sont prises de manière transparente au fur et à mesure que l'on tourne autour du sujet.

Une release candidate pour watchOS 10.1

Florian Innocente |

watchOS 10.1 arrive en release candidate, clôturant ainsi le cycle des bêtas, en attendant la finale la semaine prochaine.. Cette version du système pour poignets aura deux nouveautés majeures. D'abord NameDrop pour échanger des fiches contact par AirDrop entre deux montres ou entre une montre et un iPhone. Series 7 et SE 2 minimum.

Ensuite il y aura le geste de « Toucher deux fois » qui autorise un contrôle de quelques apps d'Apple — en attendant que les développeurs tiers s'en saisissent — sans toucher l'écran mais par un double pincement du pouce et d'un autre doigt. Series 9 et Ultra 2 minimum.

Apple Watch Series 9 : pas grand-chose de neuf au poignet

Apple Watch Series 9 : pas grand-chose de neuf au poignet

Test de l

Test de l'Apple Watch Ultra 2 : ultra maigre en nouveautés

Lire les commentaires →

TimePorter, un support pour ranger (et étaler) ses bracelets d'Apple Watch 🆕

Florian Innocente |

Les collectionneurs de bracelets pour Apple Watch ont un nouvel accessoire de rangement signé Twelve South, le TimePorter. Si le nom vous semble familier c'est que l'accessoiriste a vendu par le passé un coffret et support de recharge, de rangement et de voyage pour Apple Watch portant le même nom.

Le nouveau TimePorter n'a à peu près aucun point commun avec l'ancien, si ce n'est qu'il sert lui aussi de rangement pour des bracelets. Il s'agit d'un rail que l'on fixe contre une surface au moyen d'adhésifs 3M. Les bracelets pendent après qu'on les ait attachés, comme on les attache à un boitier d'Apple Watch.

Jusqu'à 6 bracelets peuvent être ainsi accrochés. Lorsqu'on en a davantage, il suffit d'ajouter un TimePorter supplémentaire. On le fixe contre le premier après avoir enlevé un petit cache sur le côté et installé une petite cale qui les maintient accrochés l'un à l'autre.

Le TimePorter est référencé sur Amazon, mais sans prix et pas de stock. La boutique européenne de Twelve South ne l'a pas encore non plus, quant à l'Américaine elle annonce le produit à 29,99 $. [Mise à jour] : on le trouve à 34,99 € chez Band-Band, le spécialiste français des bracelets.

Lire les commentaires →

UWB : vers la standardisation d’un protocole audio lossless à faible latence

Anthony Nelzin-Santos |

Si Apple utilise principalement la technologie UWB pour mettre au point des solutions de microlocalisation, l’industrie de la Hi-Fi la voit de plus en plus comme une solution idéale de transmission à faible latence. L’Audio Engineering Society (AES), la plus grande association de professionnels du son et de l’audio, annonce ainsi la formation d’un groupe de travail pour définir un standard d’« interface audio à haute résolution et faible latence » basé sur les normes UWB.

Les signaux UWB sont composés d’impulsions extrêmement courtes, 10 à 1 000 picosecondes tout au plus, qui peuvent traverser les murs pour être captées jusqu’à 200 mètres. La latence est un défaut qui trahit une tentative de détournement… ou les mouvements relatifs de l’émetteur et du récepteur. Voilà pourquoi cette technologie a trouvé une application naturelle dans la microlocalisation, comme avec la puce U1 qui forme une sorte de « radar personnel ».

U1 : Apple pose les bases d’un « radar personnel »

U1 : Apple pose les bases d’un « radar personnel »

Mais avec leur bande ultralarge (500 à 1 300 MHz) sur une plage étendue de fréquences (3,1 à 10,6 GHz), les signaux UWB peuvent atteindre jusqu’à 480 Mbit/s à l’échelle de quelques mètres. Voilà pourquoi cette technologie intéresse particulièrement l’industrie de la Hi-Fi, qui cherche à couper le cordon sans devoir employer le Bluetooth — dont la bande passante est trop limitée pour les composants « audiophiles » — ou le Wi-Fi et ses dérivés — dont la consommation est trop élevée pour les dispositifs mobiles.

Lenbrook rêve tout haut d’un casque à la fois wireless et lossless, au point d’avoir repris les actifs de MQA pour mettre la main sur son codec adaptatif SLC6, en utilisant une connexion UWB. D’autres fabricants imaginent plutôt cette technologie comme un moyen de connecter des enceintes ou des composants Hi-Fi sans fil ni latence, comme le protocole WiSA fonctionnant sur la bande des 5 GHz, mais sans la (chère) licence qui va avec.

Lenbrook reprend MQA pour concevoir un casque UWB

Lenbrook reprend MQA pour concevoir un casque UWB

L’AES s’inscrit pleinement dans ce « moment UWB » en chargeant le groupe de travail SC-02-02-B nouvellement formé d’étendre le standard IEEE 802.15.4ab pour « définir les connexions, fonctionnalités et structures de contrôle » d’une norme audio interopérable basée sur UWB. Ce groupe sera dirigé par Jackie Green, qui n’est autre que la conseillère technique de l’UWB Alliance.

Thread, UWB, VLP : comment Apple prépare le début de la fin du Bluetooth

Thread, UWB, VLP : comment Apple prépare le début de la fin du Bluetooth

Lire les commentaires →

Pour baisser le prix du Vision Pro, Apple pourrait fermer les yeux sur une de ses fonctions phares

Stéphane Moussie |

Étant admis qu'à 3 499 $ le Vision Pro ne sera pas à la portée de toutes les bourses, Apple travaillerait d'ores et déjà sur un modèle plus abordable. Pour baisser le prix tout en conservant sa marge, le fabricant devrait logiquement faire des compromis sur l'équipement. Mais lesquels ?

L'écran externe EyeSight donne à voir une représentation des yeux de l'utilisateur. Image Apple.

En juin, Mark Gurman avançait que la Pomme pourrait utiliser une puce moins puissante et intégrer moins de capteurs, mais qu'elle ne comptait pas faire l'impasse sur l'EyeSight. Le journaliste de Bloomberg révise finalement son évaluation à ce sujet ; d'après ses sources, Apple pourrait sacrifier cet écran qui sert à voir les yeux du porteur du casque. L'avantage de cette approche, c'est que l'utilisateur ne serait pas, ou peu, pénalisé par ce retrait puisque l'EyeSight est destiné à ceux qui l'entourent.

Autrement, Mark Gurman confirme ses précédentes informations, à savoir que la version plus abordable du Vision Pro devrait avoir une puce Ax et non Mx, des écrans moins avancés et des capteurs en moins. Quant au prix, il serait situé quelque part entre 1 500 et 2 500 $, encore très loin du Meta Quest 3 vendu 500 $ (549 €).

Apple Vision Pro : 3 499 $, est-ce si cher que ça ?

Apple Vision Pro : 3 499 $, est-ce si cher que ça ?

Lire les commentaires →

Pages