[3/5] Il faut croire que c’est la semaine de la réalité augmentée (RA). Depuis que j’ai commencé ma série sur la RA, Read Write Web a sorti son rapport Analysis of the Leaders, the Challenges and the Future et Time a nommé le RA une des 10 tendances de 2010. Les prochains grands changements numériques prendront racine avec des objets communicants rendant poreuse la frontière entre le réel et le virtuel, connectant données et les choses, les humains et leur environnement. Après l’internet des communautés, c’est l’internet des objets communicants qui marquera le grand public.
Ce billet fait partie d’une série de 5 sur la réalité augmentée
La réalité augmentée («augmented reality»), qui est la fille des simulateurs militaires et du cinéma 3D immersif (technologies lourdes), n’utilise qu’une faible bande passante, une basse définition, un usage constant du réseau (via le mobile) et des technologies abordables. Elle se distingue de ce qu’on appelle la réalité virtuelle par le fait qu’elle s’incruste dans notre monde réel.
Distinction entre le virtuel et la réalité augmentée (En)
La réalité virtuelle est une recréation en trois dimensions de notre monde avec laquelle on peut interagir. La réalité augmentée au contraire ajoute en surimpression des éléments virtuels sur notre environnement réel. Par exemple, avec de l’équipement approprié, un ouvrier pourrait voir une flèche indiquant la pièce d’équipement à changer sur une machine.
J’ai identifié en début de semaine les trois catégories d’applications de la réalité augmentée. Je m’attaquerai aujourd’hui à la deuxième catégorie.
Les trois catégories de réalité augmentée
1- 3D virtuel: La première catégorie explore le potentiel de simulation de l’ordinateur via de nouvelles interfaces. On déclenche à l’écran (2D) des animations semi-autonomes (3D) via des capteurs visuels (webcam) d’un objet référent (généralement une surface 2D, comme la couverture d’une revue ou une feuille avec un code graphique).
2- Couche data: La deuxième catégorie touche la surimpression de données en ligne au monde ambiant. C’est l’exploration du réel via de l’information ajoutée au contexte tiré d’une base de données, via un écran portable (comme les téléphones intelligents).
3- Objet parlant: La troisième catégorie connecte des objets entre eux ( des bases de données et des objets dans notre monde) via le réseau et généralement en direction des humains (comme des un «live feed»).
On a déjà discuté hier de la première catégorie hier qui déclenche à l’écran des animations semi-autonomes via des capteurs visuels (webcam) d’un objet référent (généralement une surface 2D, comme la couverture d’une revue ou une feuille avec un code graphique). La deuxième touche cette fois-ci la surimpression de données sur notre environnement immédiat.
Deuxième Catégorie: une couche data sur notre monde
La deuxième catégorie est plus prometteuse, et elle associée principalement à la mobilité.
Le téléphone portable intelligent comme le iPhone et Androïd avec son accès à internet, au GPS, sa caméra, ses senseurs de mouvement et de position, permet de transporter avec nous l’intelligence de petits ordinateurs devenu sensibles à notre environnement. Dans cette catégorie, il est moins question d’influencer ce qui se passe à l’écran que de voir l’écran influencer nos actes dans la vraie vie.
Exemples 1: Layar: fureteur de réalité augmentée
Layar est une application qui, par reconnaissance de position et du mouvement, permet « d’ajouter » des informations sur notre environnement et de s’orienter (comme une boussole numérique). On devrait assister à l’émergence de multiples fureteurs géolocaux (des «World Browser») qui offrent une panoplie d’info supplémentaire facilement accessible et mise en contexte.
Potentiel: Les éditeurs de guides ou les plateformes web «hyperlocales» devraient emboîter le pas à Lonely Planet qui a annoncé à la mi-décembre 2009 que son application Andoïde couvrirait 5 villes américaines. Mais les villes de moyenne et grande importance ont aussi l’occasion de s’affranchir des éditeurs intermédiaires touristiques pour s’offrir des guides «officiels» sous forme d’application…
Exemple 2: Recognizr: Contextualisation d’identité
En plaquant une couche d’information, Recognizr est une «carte d’affaires augmentée». L’outil offre une plus grande mobilité à de l’information en ligne. Une personne configure des types d’informations qui «flottent» avec elle en fonction du contexte (affaires, personnel) et qui donnent accès aux réseaux sociaux présélectionnés. Il permet aux autres de conserver un lien numérique, suite à une rencontre dans la «vraie vie».
Potentiel: outre la «carte d’affaires augmentée», on peut imaginer des objets qui affichent le lien vers leur mode d’emploi ou divers «liens complémentaires» en fonction de l’heure, de la météo ou autre données environnementales (pollution, traffic, etc)
Exemple 3: Réalité assistée (géométrie)
Le billard demande une grande dextérité et une bonne connaissance géométrique. Dans la deuxième partie de la vidéo, avec la réalité augmentée il possible de voir les conséquences en temps réel de ses choix pour prendre une bonne décision: ici faire entrer une boule en 1 coup. Les règles géométriques du monde sont «projetées» en temps réel sur le monde pour pallier à nos «faiblesses».
Exemple 4: Réalité assistée (réparation)
La «réparation assistée» permet d’effectuer certaines tâches qui demandaient davantage d’adresse ou de jugement. Certaines manipulations mécaniques se voient ainsi optimisées ou moins dangereuses.
Potentiel: la «réalité assistée» donne l’accès à un savoir-faire basé sur l’habilité et la transmet à des gens moins compétents ou peu habitués. Des «modes d’emploi augmentée» pour monter un meuble Ikéa, pourquoi pas?.
Exemple 5: Projection dans la réalité
Le «magic projection» affiche dynamiquement du contenu sur une surface du monde réel (ici un tableau mobile). Le procédé est assez simple: des points infrarouges sur le tableau permettent à un détecteur relié à un ordinateur portable et un projecteur de calculer en temps réel des animations. C’est en somme la version inversée de la première catégorie de réalité augmentée: un objet déclenche une animation, mais au lieu de voir le rendu à l’écran, il est transposé sur l’objet lui-même.
Potentiel: Permettre aux données de sortir de l’écran et de venir s’afficher dans la réalité. À terme, on communiquera par la gestuelle sur n’importe quelles surfaces ad hoc. Le «curseur» et «l’écran» sont des objet de notre monde. Tout peut devenir potentiellement un écran ou clavier: des essais se font actuellement sur le corps humain…
Du virtuel dans le réel
Cette deuxième catégorie donne une contextualisation supplémentaire aux lieux et aux objets, nous libérant de la signalétique statique. Elle personnalise notre expérience géospatiale en «embarquant» notre bibliothèque ou celle du réseau dans notre exploration du monde réel.
C’est souvent à cette catégorie que font allusion les gens qui disent que la réalité augmentée sera une «révolution»: c’est une sorte d’assistant personnel de mobilité et les lieux peuvent ainsi «communiquer» ou recevoir de l’information en temps réel. C’est à mon avis le secteur où il y aura le plus de développement au début de cette décennie.
Plein d’excellentes références, très cool!
Il y a aussi Google Goggles pour Android:
http://www.google.com/mobile/goggles/
Et le projet Sixth Sense, présenté à Ted l’an passé:
http://www.pranavmistry.com/projects/sixthsense/
Robin, sixth sense est effectivement extraordinaire! As-tu vu sa conf’ à TED?. Hallucinant!
Je pense avoir vu l’intégralité des TED et Google Tech Talks 😉