Nouveaux soupçons de réalité augmentée pour l’iPhone et dans des lunettes Apple

Mickaël Bazoge |

Pokémon GO a confirmé qu’il y avait un gros appétit du grand public pour la réalité augmentée. Et chez Apple aussi ! On ne compte plus le nombre de déclarations enthousiastes de Tim Cook pour cette technologie, qu’il perçoit bien comme plus intéressante que la réalité virtuelle ; tandis que la première enrichit l’environnement de l’utilisateur, la seconde l’enferme dans un autre monde (lire : Réalité augmentée : Tim Cook toujours aussi partant, mais où ?).

Cette passion pour la réalité augmentée devrait s’incarner dans une fusée à deux étages. La première, c’est l’intégration de la technologie au sein de l’application Appareil photo de l’iPhone. Business Insider nous apprend que le constructeur a assemblé une équipe composée d’employés provenant de start-up acquises ces dernières années, comme Metaio, Flyby Media, ou encore FaceShift.

De la réalité augmentée pour l’appareil photo de l’iPhone…

Ces forts en thème développeraient au moins deux fonctions liées directement à la réalité augmentée. La première est un outil de reconnaissance d’objets : en pointant l’appareil photo de l’iPhone sur tel ou tel objet, le smartphone saurait de quoi il s’agit.

Pour quel usage ? Un cas d’utilisation typique pourrait être l’identification d’un produit pour le commander en ligne, par exemple. Apple mettrait un SDK à disposition des développeurs pour exploiter cet outil qui sera d’un grand intérêt, on n’en doute pas, pour les sites de commerce en ligne.

Cette fonction rappelle beaucoup ce qu’Amazon avait développé pour sa première et unique tentative de smartphone, le Fire. Lui aussi savait reconnaitre des objets, mais également du contenu (série TV, musique) pour les commander ensuite… sur Amazon, bien sûr.

La deuxième fonction serait la possibilité de modifier le visage de l’utilisateur en temps réel. Ça tombe bien, c’est justement la spécialité de FaceShift acheté l’an dernier ! Cette entreprise spécialisée dans le motion-capture a mis au point des outils de capture des expressions du visage pour y appliquer ensuite des effets en temps réel.

Ce type d’effets fait un malheur dans des applications qui transforment l’utilisateur en zombie ou tout autre créature quelconque. Ils font aussi les riches heures de Snapchat, qui a mis au point des filtres de déformation très efficaces.

Deux effets de Snapchat sur un cobaye volontaire.

Cette rumeur de filtres de modification du visage en temps réel n’est en fait pas nouvelle : déjà cet été elle avait été évoquée, mais à l’époque le bruit de couloir ne savait pas dire s’il allait s’agir d’une application à part, ou d’une fonction pour la caméra FaceTime de l’iPhone (lire : Apple travaille à une app vidéo pour la génération Snapchat).

… et sur le nez

Business Insider rebondit également sur la grosse rumeur publiée en début de semaine par Bloomberg selon laquelle Apple s’intéresse aux lunettes connectées du type Google Glass (lire : Réalité augmentée : Apple teste des lunettes connectées à l’iPhone).

Concept Richard Darell.

Si le produit final ne devrait pas être présenté avant 2018 au mieux, le projet serait bien passé du stade exploratoire évoqué par Bloomberg à un niveau supérieur : celui où Apple commence à s’intéresser à la production.

Pour ce faire, le constructeur a embauché en septembre John Border en tant qu’ingénieur en « exploration de fabrication optique ». C’est un spécialiste des écrans portés près des yeux, de la production d’optique et des systèmes photo.

Avant Cupertino, il était ingénieur chef au sein de l’Osterhout Design Group, une petite société dont le fait d’armes est d’avoir mis au point les R-7 Smartglasses. Il s’agit d’une paire de lunettes connectées qui affiche une interface translucide dans deux écrans positionnés dans les verres.

À voir les vidéos filmées sans trucages disponibles sur la chaîne YouTube de l’entreprise, il y a là un sacré potentiel qu’Apple pourrait bien exploiter.

Accédez aux commentaires de l'article