La réalité augmentée prend tout son sens avec CoreML

Nicolas Furno |

Avec iOS 11, Apple n’a pas présenté qu’une seule technologie d’avenir. Certes, ARKit est sans doute la nouveauté la plus impressionnante et le constructeur a fait un pas de géant dans le domaine de la réalité augmentée. Il ne faudrait pas oublier pour autant CoreML, un framework de Machine Learning qu’Apple utilisait en interne jusque-là, mais que les développeurs peuvent à leur tour exploiter (lire : Core ML : le cerveau pas si lent d'Apple).

Ce framework peut servir notamment à détecter des objets. Et en le combinant à la réalité augmentée fournie par ARKit, on devrait obtenir des solutions extrêmement utiles. Cette petite démonstration en donne un avant-goût : CoreML sert à détecter la banane et ARKit est exploité pour afficher des informations nutritives autour, comme si elles étaient posées sur la table.

Dans ce domaine, tout reste à inventer, mais à en juger à la quantité de projets en cours, on peut constater que les développeurs sont très motivés. Voilà qui promet pour la sortie d’iOS 11 et des apps associées à l’automne.


Tags
avatar MrMeteo | 

C'est énorme !
Vous savez si certains développeurs cherchent des bêta-testeurs ? Je suis extrêmement curieux !

avatar Vanton | 

"Ce framework peut servir notamment à détecter des objets. Et en le combinant à la réalité augmentée fournie par ARKit, on devrait obtenir des solutions extrêmement utiles. Cette petite démonstration en donne un avant-goût : CoreML sert à détecter la banane et ARKit est exploité pour afficher des informations nutritives autour, comme si elles étaient posées sur la table."

Utiles ?!?!? Ça a quoi d'utile cet exemple sérieux ? Que ce soit impressionnant techniquement je suis entièrement d'accord. Mais franchement où est l'utilité de l'AR dans cette démonstration ? Reconnaître l'objet et afficher une page de texte avec les infos est autrement plus facile à lire qu'un texte se déplaçant dans des bulles...

avatar melaure | 

@Vanton

Justement c'est ça l'avenir de l'Etre connecté. On ne saura plus ce qu'est une banane mais iBidule te le dira.

Un pied de plus vers l'être humain assisté façon Wall E ;)

avatar stefhan | 

@Vanton

Utile dans le sens pour les gens qui sont diabétiques ou à forte teneur en cholestérol par exemple ?

Avant d'être aussi vindicatif, il serait bien de faire tourner son cerveau avant. Ah ! Mon ARkit le dit qu'il est tôt le matin, Vanton pas réveillé ? ?

avatar cecile_aelita | 

je suis RAREMENT (voir jamais !!!) d'accord avec Vanton (avec les trolls en général d'ailleur !! :D)
mais il faut bien admettre que dans cet exemple la partie "RA" ne sert pas a grand chose.
qu'il détecte une banane avec Core ML est très utile. Mais il suffit d'afficher une fenêtre sur l'ipad pour donner toutes ses infos (ça ne sert pas à grand chose de les afficher en RA :-) )
par contre je reste persuadé que le couplage Core ML / RA donnera de super trucs!! mais cet exemple n'en est pas un ;-)

avatar reborn | 

@romainB84

Cela reste des démos, des proof of concept. Il faut aller plus loin pour imaginer ce qu'il est possible de réaliser.

En tout cas il y a pas mal de ferveur chez les devs pour l'ARkit, je ne m'y attendais pas.

avatar cecile_aelita | 

+1
il faut dire aussi que je pense que pas mal de dev étaient surement intéressés par cette techno mais que les verrous techniques devaient surement les freiner un peu.
Apple a fait sauter une grosse partie de ces difficultés avec ARkit, mais comme il est dit dans l'article, Core ML semble également très bien fait.
cet iOS 11 semble un bon cru pour nos chers développeurs qui vont pouvoir se lacher :-)

avatar Vanton | 

@romainB84

Je suis supposé être un troll ?! ?

avatar Bigdidou | 

@Vanton

"Je suis supposé être un troll ?! ?"
Constitué de 97% de cailloux, 2% d'acide sulfurique et des traces de choses diverses étonnantes.
C'est ce que me dit Core ML, en tout cas.

avatar Vanton | 

@Bigdidou

? seulement 2% d'acide ? Ça va encore...

Il est vrai que je suis moins emballé par Apple depuis la mort de Jobs... Mais tout de même...

avatar Bigdidou | 

@Vanton

"? seulement 2% d'acide ? Ça va encore..."
Oui, CoreML nécessite quelques réglages ;)
:D

Et nous sommes d'accord qu'un troll c'est quelqu'un de mauvaise foi qui envenime une discussion pour faire péter les plombs à l'autre, je ne vois rien de tel chez toi (peut-être parfois, mais chez moi aussi, donc...)

avatar XiliX | 

@romainB84

"Mais il suffit d'afficher une fenêtre sur l'ipad pour donner toutes ses infos (ça ne sert pas à grand chose de les afficher en RA :-) )
par contre je reste persuadé que le couplage Core ML / RA donnera de super trucs!! mais cet exemple n'en est pas un"

Si.. si... l'affichage en AR permet de garder "une continuité et fluidité" de l'information. Effectivement ici on a qu'un seul exemple "Banane". Mais ça aurait très bien pu un étal où on peut trouver différentes sortes de fruits et légumes. L'affichage continue en AR permet de garder une certaine fluidité de l'information...

avatar cecile_aelita | 

Dans ce cas pourquoi pas en effet!
Mais ce que je voulais dire c'est que cet exemple bien précis (avec une banane) de la vidéo ne donne pas un grand intérêt de la RA ?

avatar Bigdidou | 

@stefhan

"Utile dans le sens pour les gens qui sont diabétiques ou à forte teneur en cholestérol par exemple ?"

Des gens à forte teneur en cholestérol ?
Ça se dit d'un aliment, mais, tu manges ce(ux) que tu veux...

avatar Achylle_ | 

Vous n'avez pas beaucoup d'imagination....
Vous ne voyez pas l'utilité de pouvoir afficher des infos supplémentaires à côté de n'importe quoi, vraiment ?
Genre dans un magasin, afficher des infos en surimpression à côté d'un article, cela n'aurait aucun intérêt (pour le magasin, comme pour le client) ?

Et quand bien même on reste sur l'exemple de la Banane.
On pourrait imaginer que ça le traduise en Anglais ou en Russe, que sais-je.

On pourrait visiter un musée et voir des infos s'afficher à côté des tableaux, des statues, ....

Non, franchement, la réalité augmentée, c'est trop naze... :/

avatar Vanton | 

@Achylle_

Avoir des infos complémentaires est très intéressant. Mais ça dépend du moteur de reconnaissance d'objets ça. Pas de l'AR qui elle se contente de faire flotter les infos à côté de l'objet. Ce qui est très mignon techniquement mais largement inutile selon moi.

Il faut distinguer le fond (l'identification des objets et l'affichage d'infos) qui est utile de la forme (l'affichage dans l'espace à grand renfort d'énergie pour faire tourner le processeur et la carte graphique...) qui me semble totalement gadget. Et même peu pratique.

avatar XiliX | 

@Vanton

J'ai répondu àromain84 aussi.
Perso, le fait d'afficher les informations en AR est plus une question de "confort".
Effectivement dans cet exemple, on a qu'un seul objet. Imaginons qu'il y ait plusieurs objets, et on passe d'un objet à l'autre, je trouve que l'affichage des informations en AR permet de garder une certaine "fluidité".

Enfin, il ne faut pas oublier aussi que c'est juste un exemple "à mon avis" vite fait/dévellopé.

avatar Vanton | 

@XiliX

Le problème c'est qu'il faut garder l'appareil dans l'axe des objets. Levé le plus souvent et mal orienté pour être lisible.
Contrairement à une bête liste d'infos qu'on peut lire confortablement.

avatar XiliX | 

@Vanton

Sauf quand il y en a plusieurs comme je disais, là une liste d'info ne suffit plus.
Il faut juste orienter correctement l'affichage

avatar Stardustxxx | 

@Vanton
Je pense que l'auteur veut dire que l'AR sans cette techno n'est pas super intéressant.

avatar rmosca | 

n'oubliez pas qu'in fine, tout ceci sera directement connecté à votre oeil, voir votre cerveau, oubliez le tel

avatar Ielvin | 

@Mac G :
Ahah :D
Je savais que ça sortirai :)
Merci :p

avatar reborn | 

Il faut rappeler que l'hololens a besoin de scanner la pièce au préalable, ici Apple fait mieux et avec un simple smartphone sans composant spécifique.

Sur le tracking et positionnement de l'objet AR l'hololens s'en sors mieux mais de peu. Hâte de voir ce qu'Apple pourrais faire avec des composants spécifique et des lunettes AR ?

avatar Manu | 

Pour ceux qui sont encore sceptiques sur la RA, imaginez la vue d’un produit avec étiquette physique en russe affichant en RA via l’iPhone la même étiquette en francais. Pour moi l’innovation suprême ce n’est pas par des lunettes mais via les pare-brise de voiture pour voir des panneaux de circulation virtuelles indiquant à un instant t un sens interdit pour fluidifier la circulation par exemple.

avatar ovea | 

L'utilité est indéniable et l'axe de visé* trop bas oblige a développer du non immersif le tout dans l'instantanéité … ça va être que du speed ? l'iOS-AR

La suite pas plus immersive (*) permettra le guidage multitâche anti-collusions** pour utilisateur distrait dans son déplacement par les injonctions paradoxales de son iPhone/iPad ? gagne pain

*Ça dépend également des nouvelles caméra ~360° sur le haut de l'iPhone/iPad
**Vanton(s) nous, en looseD mind d'avoir besoin d'une petite fenêtre par où s'extirper de la crassocratie ? No_On !

CONNEXION UTILISATEUR