Infographie 3D - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Techniques

La synthèse d'image 3D se décompose essentiellement en deux étapes :

  • Modéliser ce que l'on veut visualiser ou représenter. Cette étape est appelée modélisation
  • Effectuer la visualisation de ce que l'on a modélisé. Cette étape est appelée rendu

Dans chacune de ces étapes, un grand nombre de techniques existent. Bien que théoriquement les techniques de modélisation et de rendu soient indépendantes, il va de soi que le rendu doit pouvoir exploiter les données modélisées et bien souvent une technique de modélisation est étroitement associée avec une technique de rendu.

Modélisation

La modélisation va consister à faire stocker par l'ordinateur un ensemble de données géométriques et de caractéristiques graphiques permettant de représenter ensuite le modèle. Ce modèle est habituellement appelé scène 3D, d'après l'anglais scene qui signifie « vue », on dira donc « vue 3D ». Voir l'article dédié pour plus d'informations :

Types de modélisation

  • CSG (Constructive Solid Geometry) : les objets sont définis par des opérations (unions, intersections…) sur des formes géométriques dans l'espace (polyèdres, sphères, cônes, courbes de Bézier, splines, NURBS…). Cette méthode est bien adaptée pour la création ex nihilo, puisqu'elle correspond bien à la façon dont l'esprit humain se représente la forme des objets.
  • B-Rep (Boundary Representation, représentation par frontière) : la surface de chacun des objets est limitée par des formes géométriques 2D (généralement des triangles). C'est le format naturel de sortie des scanners 3D qui mesurent les cotes de points à la surface des objets. C'est aussi la représentation généralement utilisée par les dispositifs d'affichage accélérés pour la 3D.
  • Splines, où les surfaces sont décrites par des courbes formant un treillis.
  • Surfaces implicites, où les objets à représenter sont décrits par des surfaces joignant des volumes, le plus souvent des sphères.
  • Voxels, reprenant en 3D l'analogie des images numériques où l'espace est divisé en intervalles réguliers.

Logiciels de modélisation

Le processus de modélisation peut être soit automatique comme pour un scanner 3D, où un programme va créer une représentation informatique à partir d'un objet réel du monde, soit manuel à l'aide d'un logiciel d'édition 3D. Dans ce dernier cas, un infographiste est responsable de la création du modèle. Ces logiciels sont appelés modeleurs d'après l'anglais modeler.

Parmi les logiciels les plus connus et les plus répandus se trouvent 3D Studio Max , Maya, XSI, Lightwave, Cinema4D, Modo et le logiciel open source, Blender.

Rendu

Le rendu se décompose à son tour en plusieurs phases :

  • Calcul de l'éclairage (on parle d'illumination)
  • Projection dans le plan d'observation.
  • Dessin à proprement parler avec application éventuelle de textures

Il arrive que certaines de ces phases soient réalisées en même temps (dans les cartes 3D par exemple)

Moteur de rendu 3D

  • Le rendu est une phase qui consiste à transformer l'espace 3D en une image 2D. Le rendu est généré par un/des programme(s) qu'on appelle Moteur de rendu 3D, intégré(s) ou non au logiciel de modélisation.

Illumination

  • illumination locale
    • L'algorithme de Gouraud, est une méthode de rendu très simplifiée puisqu'elle consiste à interpoler sur l'image en 2D, ligne par ligne au niveau des pixels, les valeurs d'intensité de l'intérieur d'un polyèdre selon les intensités de ses voisins : c'est un lissage 2D.
    • L'algorithme de Phong est un ombrage 3D qui permet d'avoir un volume et un effet de matière, en fonction de la source de lumière et de propriété de réflexion de la lumière du matériau en chaque point du polyèdre, par interpolation des normales aux sommets.
  • illumination globale
    • la radiosité calcule les échanges d'énergie lumineuse entre éléments de surface de la scène en tenant compte de leurs propriétés de réflexion et d'absorption. Cela nécessite de décomposer la scène en éléments finis de surface. Cela permet des éclairages naturellement doux. Cette technique associée au lancer de rayons et à d'autres voisines permettant les inter-réflexions est une technique d'illumination globale.

Projection

Les objets ainsi définis par des nombres peuvent ensuite être dessinés sur un écran ; les triplets de valeurs (x, y, z) sont transformés en points du dessin. Ce rendu utilise la notion de perspective :

  • perspective conique, avec points de fuite : plus l'objet est loin, plus il est dessiné petit ; ce procédé est parfois qualifié abusivement de « vraie 3D » ou de « vision naturelle » ;
  • perspective axonométrique, dont la perspective cavalière et les projections orthogonales (notamment la perspective isométrique, voir aussi Géométrie descriptive) : la taille de l'objet ne varie pas avec l'éloignement ; l'éloignement est figuré par un déplacement dans le plan de la figure.

D'autres algorithmes de rendus sont utilisés, tenant notamment compte du fait que les détails et les contrastes s'estompent avec l'éloignement (perspective atmosphérique).

Les techniques de la synthèse d'images 3D ont d'abord distingué les algorithmes de calcul des faces cachées qui travaillaient dans l'espace 3D de la scène et ceux du rendu photoréaliste qui travaillaient dans l'espace 2D de l'image (pixels). Les algorithmes de rendu actuels réalisent les deux fonctions simultanément.

Dessin

À ces types de perspective, on associe un type de dessin :

  • Z-buffer (tampon de profondeur des pixels), utilisant l'algorithme dit du peintre (qui peint la scène en partant du fond puis successivement les sujets de plus en plus rapprochés) pour afficher les scènes constituées de polygones ou de structures plus évoluées comme les nurbs, et qui gère correctement l'affichage de polygones entremêlés à la précision de l'affichage car le tracé se fait pixel par pixel. C'est une méthode 3D de calcul de faces cachées à l'échelle des pixels car elle conserve la profondeur de chaque pixel.
  • Le lancer de rayon (raytracing, dont est dérivé le raycasting), simulant le parcours inverse de la lumière de la scène vers l'œil. Cette technique permet de simuler relativement facilement les phénomènes physiques que sont réflexion et réfraction ainsi que les ombres portées mais crée des scènes trop pures et irréalistes. Dans ce cas, la projection est réalisée en même temps que le dessin car tracer un rayon implique de le projeter dans la scène 3D.
  • Autres…

Des techniques complémentaires d'application de texture (texture mapping) sont utilisées pour le rendu d'effets plus réalistes sans pour autant rendre plus complexes les modèles 3D. Par exemple :

  • l'application de textures photoréalistes issues de l'objet réel,
  • le placage de relief (bump mapping) qui est une perturbation locale des normales à la surface et permet de rendre l'aspect de surfaces granuleuses par exemple.
  • les textures d'éclairage

Avec ces techniques apparaissent les problèmes de filtrage, qui est nécessaire pour éliminer les artefacts.

Variantes

  • La représentation par arêtes, équivalente du dessin au trait, ne représente que les bords des objets de la scène ne nécessitant qu'un algorithme de faces cachées. Cette méthode de calcul dans l'espace 3D est encore utilisée dans de nombreux modeleurs pour avoir un affichage rapide.

Différence fondamentale avec la 2D

Au final, on a une image 2D. Cette image aurait très bien pu être dessinée directement en 2D, mais elle a été calculée, générée à partir du modèle 3D.

Le monde de la 3D en images de synthèse est, effectivement, mathématiquement réel. Mais le mécanisme ici est inversé, tel un dessinateur reproduisant sur papier carton une œuvre sculptée sous tous ses angles. L'image en deux dimensions résultant du rendu d'une scène tridimensionnelle n'est autre que le sous-produit de ce monde virtuel « filaire ». Les possibilités de cette technologie sont infinies, tout comme un artiste dessinateur pourrait reproduire la réalité sous une infinité d'angles et de paramètres différents.

Contrairement à une image 3D classique, une image 3D volumétrique (ou volumique), donne une valeur à tous les points de l'espace (calculs matriciels). Ceux-ci sont tous reliés (ou non) entre eux afin de constituer des polygones que l'on appelle communément des facettes. Ces facettes interconnectées entre elles à leur tour, constituent au final l'objet 3D en question. Par ailleurs, d'autres points peuvent se trouver eux aussi à l'intérieur même de l'objet, ceux-là même auxquels on peut attribuer des fonctions spécifiques supplémentaires, conférant à l'objet une impression de masse en plus du volume (ex. : Objet plein / Objet creux).

Rendu du relief

La vision en relief provient du fait que, les deux yeux étant décalés, un objet n'est pas vu au même endroit par les deux yeux (différence de parallaxe). L'ordinateur peut générer deux images différentes, une étant vue par l'œil gauche, l'autre par l'œil droit, et donner ainsi une impression de relief.

Un moyen simple de créer ce « relief artificiel » consiste à générer une seule image, dite anaglyphe, mais contenant les informations pour les deux yeux, en deux couleurs, en général vert et rouge. Le spectateur dispose de lunettes ayant un filtre vert d'un côté (cet œil ne voit que les informations rouges, qui apparaissent en noir, voir Synthèse soustractive), et un filtre rouge de l'autre côté (cet œil ne voit que les informations vertes, qui apparaissent également en noir).

On peut aussi travailler avec une seule image initiale, avec une répartition des couleurs judicieuses. Les lunettes décrites ci-dessus exagèrent l'effet visuel sur ces images spéciales, mettant au premier plan le sujet de l'image en vert et l'arrière plan du décor en rouge. On obtient ainsi une illusion de profondeur stéréoscopique, ainsi que de relief.

Holographie virtuelle

Rien n'interdit avec les processeurs actuels de calculer en quelques minutes, voire en quelques secondes, des hologrammes simples impressionnés sur des films à bonne résolution. Le procédé existe en fait depuis le début des années 1970 (l'IBM Systems Journal avait fourni un exemplaire d'un tel hologramme calculé dans l'un de ses numéros de cette décennie). Le procédé n'eut pas de suite à l'époque pour des raisons de coût, mais pourrait ressurgir aujourd'hui.

Page générée en 0.137 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise