Réalité augmentée - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

La notion de réalité augmentée désigne les systèmes (au sens informatique) qui rendent possible la superposition d'un modèle virtuel 3D ou 2D à la perception que nous avons naturellement de la réalité et ceci en temps réel. Ce système peut aussi bien s'appliquer à la perception visuelle (superposition d'image virtuelle aux images réelles) qu'aux perceptions proprioceptives comme les perceptions tactiles ou auditives.

Le concept de réalité augmentée vise donc à compléter notre perception du monde réel, en y ajoutant des éléments fictifs, non perceptibles naturellement. La réalité augmentée désigne donc les différentes méthodes qui permettent d'incruster de façon réaliste des objets virtuels dans une séquence d'images. Ses applications sont multiples et touchent de plus en plus de domaines : jeux vidéo et edutainment, chasses au trésor virtuelles, cinéma et télévision (post-production, studios virtuels, retransmissions sportives...), industries (conception, design, maintenance, assemblage, pilotage, robotique et télérobotique, implantation, étude d'impact...), médical, etc.

Principes

Agrémenter d'objets fictifs une séquence vidéo issue d'un plan fixe ne pose guère de problèmes. Les applications visées demandant souvent énormément de réalisme, il est indispensable que l'ajout d'objets dans une scène ne perturbe pas la cohérence du contenu filmé. Le fait de déplacer la caméra implique cependant un mouvement dans l'image de la scène filmée. Pour assurer la cohérence entre les deux flux réels et virtuels, un lien rigide doit être maintenu entre les deux mondes. Afin de donner l'illusion que ces objets fictifs appartiennent au même monde, il est nécessaire de bien les placer, bien les orienter et de respecter des facteurs d'échelle par rapport aux objets réellement filmés. Bien placer les objets virtuels par rapport aux objets de la scène nécessite de connaître la position de la caméra par rapport à la scène.

Le problème de la localisation de la caméra est donc important et peut être résolu par diverses approches. On peut utiliser un système de capteurs, comme des capteurs magnétiques qui mesurent la distorsion du champ magnétique pour calculer leur position, des capteurs optiques, des encodeurs sur les moteurs du pied des caméras ou encore, évidemment, le flux vidéo.

Dans le cas de l'utilisation de capteurs externes au système de prise de vue, les informations de ce système (angle, position, focale) sont récupérées à l'aide de capteurs et l'incrustation est directement reproduite à la bonne échelle sur l'image à augmenter.

Cependant, si l'on considère uniquement les informations acquises par la caméra, le problème de réalité augmentée se ramène à un problème de vision par ordinateur. Dans certains contextes applicatifs comme le cinéma, l'ensemble de la séquence vidéo est disponible avant le traitement. Dans cette optique de post-production, des traitements lourds en termes de temps de calcul sont envisageables. Des techniques permettant à la fois la reconstruction 3D d'un certain nombre de points de la scène et la localisation 3D de la caméra sont mises en œuvre par des techniques d'autocalibrage ou d'ajustement de faisceaux. Des logiciels commerciaux reposant sur ce principe sont d'ores et déjà disponibles (on peut citer Boujou de la société 2d3 — issue de l'université d'Oxford —, MatchMover de la société Realviz—issue du projet Robotvis de l'INRIA Sophia Antipolis —, D-Fusion de la société Total Immersion ou encore en version web RevelActions de la société ActenGo). Ces méthodes sont cependant très dépendantes de la qualité de la mise en correspondance des primitives 2D (bruit d'extraction, distribution spatiale, nombre d'erreurs d'appariement...) et l'utilisateur est parfois mis à contribution.

Dans le cadre d'applications interactives (audiovisuel dans les « conditions du direct », industrie, jeux vidéo interactifs, médical, militaire) le recours à des techniques d'autocalibrage n'est pas possible. Des techniques permettant la localisation de la caméra à partir de l'image courante (et éventuellement des précédentes) sont nécessaires. Si un modèle de la scène (ou d'une partie de celle-ci) est disponible, le calcul de points de vue est évidemment une solution idéale à ce problème. Dans le cas où la structure 3D de la scène est (partiellement) inconnue, d'autres approches reposant, par exemple, sur le calcul du déplacement de la caméra sont envisageables. Les avantages de ces approches interactives sont multiples :

  • Elles permettent une intégration réelle-virtuelle en temps réel (ie, à la cadence vidéo) car les calculs sous-jacents sont relativement peu coûteux.
  • Il n'est pas non plus nécessaire de faire un étalonnage « lourd » du système comme c'est le cas si on utilise d'autres types de capteurs, ni de disposer a priori de la séquence complète.
  • Elle peut fonctionner sur des plates-formes PC standards ce qui implique un coût relativement faible.

Dans tous les cas, une fois la caméra localisée par rapport à la scène, ces informations servent à adapter le modèle informatique de la scène, de manière à être capable de calculer les caractéristiques des objets virtuels que l'on veut y insérer. Ces objets virtuels subissent alors des transformations géométriques qui permettront de les « plaquer » dans l'image source, de manière à les y intégrer de la manière la plus naturelle possible.

Page générée en 0.005 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise