Valeur propre, vecteur propre et espace propre
Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.
Fig. 1. Cette application linéaire déforme la statue de David. Les vecteurs bleus ont pour images les vecteurs verts. Ils gardent la même direction, ce sont des vecteurs propres. La valeur propre associée est proche de -1/2. Dans ce cas particulier l'espace propre est l'espace entier.
Fig. 1. Cette application linéaire déforme la statue de David. Les vecteurs bleus ont pour images les vecteurs verts. Ils gardent la même direction, ce sont des vecteurs propres. La valeur propre associée est proche de -1/2. Dans ce cas particulier l'espace propre est l'espace entier.

En mathématiques, le concept de vecteur propre (En mathématiques, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude...) est une notion algébrique s'appliquant à une application linéaire (En mathématiques, une application linéaire (aussi appelée opérateur linéaire ou transformation linéaire) est une application entre deux espaces vectoriels qui respecte l’addition des...) d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés, selon lesquels l'application se comporte comme une dilatation (La dilatation est l'expansion du volume d'un corps occasionné par son réchauffement, généralement imperceptible. Dans le cas d'un gaz, il y a dilatation à...), multipliant les vecteurs par une même constante. Ce rapport de dilatation est appelé valeur propre (En mathématiques, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes privilégiés,...), les vecteurs auxquels il s'applique vecteurs propres, réunis en un espace propre. Le graphique de la figure 1 illustre ces notions.

La connaissance des vecteurs et valeurs propres offre une information clé sur l'application linéaire considérée. Il existe de plus de nombreux cas où cette connaissance caractérise totalement l'application linéaire.

Ce concept appartient à l'origine à une branche des mathématiques appelée algèbre linéaire (L’algèbre linéaire est la branche des mathématiques qui s'intéresse à l'étude des espaces vectoriels (ou espaces linéaires), de leurs éléments les vecteurs, des transformations linéaires et des systèmes...). Son utilisation, cependant, dépasse maintenant de loin ce cadre. Il intervient aussi bien en mathématiques pures qu'appliquées. Il apparaît par exemple en géométrie (La géométrie est la partie des mathématiques qui étudie les figures de l'espace de dimension 3 (géométrie euclidienne) et, depuis le XVIIIe siècle, les figures d'autres types...) dans l'étude des formes quadratiques, ou en analyse fonctionnelle (En mathématiques, le terme fonctionnelle se réfère à certaines fonctions. Initialement, le terme désignait les fonctions qui en prennent d'autres en argument. Aujourd'hui, le terme a...). Il permet de résoudre des problèmes appliqués aussi variés que celui des mouvements d'une corde vibrante, le classement des pages web par Google (Google, Inc. est une société fondée le 7 septembre 1998 dans la Silicon Valley en Californie par Larry Page et Sergey Brin, auteurs du moteur de recherche Google. Depuis 2001, Eric Schmidt en est le...), la détermination de la structure de l'espace-temps (La notion d'espace-temps a été introduite au début des années 1900 et reprise notamment par Minkowski en 1908 dans un exposé mathématique sur la...) en théorie de la relativité (Cet article traite de la théorie de la relativité à travers les âges. En physique, la notion de relativité date de Galilée. Les travaux d'Einstein en ont fait un important champ d'étude, tant théorique qu'expérimental.) générale, ou l'étude de l'équation de Schrödinger (L'équation de Schrödinger, conçue par le physicien autrichien Erwin Schrödinger en 1925, est une équation fondamentale en physique quantique non-relativiste. Elle décrit l'évolution dans le temps d'une particule massive...) en mécanique quantique (Fille de l'ancienne théorie des quanta, la mécanique quantique constitue le pilier d'un ensemble de théories physiques qu'on regroupe sous l'appellation générale de physique quantique. Cette dénomination s'oppose à celle de...).

  • Pour un article synthétique sur le sujet ne traitant que du contenu mathématique, voir : Valeur propre (synthèse)

Histoire

Genèse

René Descartes associe algèbre et géométrie et démarre l'algèbre linéaire.
René Descartes associe algèbre (L'algèbre, mot d'origine arabe al-jabr (الجبر), est la branche des mathématiques qui étudie, d'une façon...) et géométrie et démarre l'algèbre linéaire.

S'il est habituel de prendre pour acte de naissance officiel de l'algèbre la publication du livre[1]d'Al-Khuw?rizm? (783-850), qu'il décrit lui même comme "un abrégé englobant les plus fines et les plus nobles opérations du calcul ", le domaine linéaire doit attendre le XVIe siècle pour dépasser le simple cadre de quelques équations.

L'association entre la géométrie et l'algèbre, à travers la notion de coordonnées, fut introduite[2] en 1637 par René Descartes (1596-1650) et Pierre de Fermat (Pierre de Fermat, né le 20 août 1601, à Beaumont-de-Lomagne, près de Montauban, et décédé le 12 janvier 1665 à Castres, était un juriste et mathématicien français,...) (1601-1665). Le contexte (Le contexte d'un évènement inclut les circonstances et conditions qui l'entourent; le contexte d'un mot, d'une phrase ou d'un texte inclut les mots qui l'entourent. Le concept de contexte issu...) est donné pour l'apparition[3] de premiers résultats d'algèbre linéaire comme le calcul d'un déterminant. Ces résultats serviront par la suite d'outil (Un outil est un objet finalisé utilisé par un être vivant dans le but d'augmenter son efficacité naturelle dans l'action. Cette augmentation se traduit par la simplification des actions entreprises, par une plus grande...) d'analyse des valeurs propres. Cependant, les mathématiques de cette époque ne disposent pas encore des notions indispensables de l'algèbre linéaire, comme une géométrie correspondant à notre espace vectoriel (En algèbre linéaire, un espace vectoriel est une structure algébrique permettant en pratique d'effectuer des combinaisons linéaires. Pour une introduction au concept de vecteur, voir l'article Vecteur.), où les éléments sont définis par leurs opérations.

Le début du XIXe siècle voit l'apparition d'outils importants pour la théorie (Le mot théorie vient du mot grec theorein, qui signifie « contempler, observer, examiner ». Dans le langage courant, une théorie est une idée ou une connaissance spéculative, souvent basée sur...) des valeurs propres. En 1799, Carl Friedrich Gauss (1777-1855) démontre la clôture algébrique (En mathématiques, une clôture algébrique d'un corps K est une extension algébrique de K qui est algébriquement close.) des nombres complexes[4]. Des espaces vectoriels plus vastes sont étudiés. Gauss formalise le problème de la résolution d'un système d'équations linéaires avec la méthode du pivot en retrouvant une méthode décrite par un mathématicien (Un mathématicien est au sens restreint un chercheur en mathématiques, par extension toute personne faisant des mathématiques la base de son activité principale. Ce terme recouvre...) chinois Liu (Liu (chinois : 柳宿, pinyin : liǔ xiù) est une loge lunaire de l'astronomie chinoise. Son étoile référente (c'est-à-dire celle qui...) Hui (IIIe siècle (Un siècle est maintenant une période de cent années. Le mot vient du latin saeculum, i, qui signifiait race, génération. Il a ensuite indiqué la durée d'une génération humaine et faisait 33 ans 4 mois (d'où...) après J.C) près de 1600 ans auparavant.

Des problématiques où les valeurs propres représentent la bonne approche sont étudiées. Joseph Fourier (1768-1830) étudie une solution[5] de l'équation (En mathématiques, une équation est une égalité qui lie différentes quantités, généralement pour poser le problème de leur identité. Résoudre l'équation consiste à déterminer toutes les façons de donner à certaines des...) de propagation à l'aide d'un outil que l'on appellera plus tard une base de vecteurs propres. Enfin en 1834, Hamilton (1805-1865) utilise[6], un polynôme caractéristique (En algèbre linéaire, à toute matrice carrée ou à tout endomorphisme d'un espace vectoriel de dimension finie est associé un polynôme appelé polynôme caractéristique. Il renferme d'importantes informations sur la matrice ou sur...) pour trouver ce que l'on appelle maintenant les valeurs propres associées à l'endomorphisme d'une équation différentielle linéaire issue de la mécanique (Dans le langage courant, la mécanique est le domaine des machines, moteurs, véhicules, organes (engrenages, poulies, courroies, vilebrequins, arbres de transmission, pistons,...). Cependant, l'absence de formalisation suffisante de la notion d'espace vectoriel empêche l'apparition claire du concept.

Origine du mot

L'Allemand Hilbert donne la formulation anglosaxone : eigenvalue provenant de Eigenwert.
L'Allemand Hilbert donne la formulation (La formulation est une activité industrielle consistant à fabriquer des produits homogènes, stables et possédant des propriétés spécifiques, en mélangeant différentes...) anglosaxone : eigenvalue provenant de Eigenwert.

La formalisation algébrique d'un espace vectoriel apparait vers le milieu du siècle. Arthur Cayley (1821-1895) initie l'étude des espaces vectoriels de dimension (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son diamètre si c'est une pièce de révolution.) n[7] et de leurs applications linéaires[8]. Grassmann (1809-1877) formalise le concept[9]. Même si, en tant que mathématicien il est peu reconnu à cette époque, dès 1845, des idées analogues sont reprises par Cauchy (1789-1857) et publiées sous une forme plus définitive[10] neuf ans plus tard. Sylvester (1814-1897) en collaboration avec Cayley utilise pour la première fois le terme de matrice[11] en 1850. Il utilise la notion de valeur propre dans le cas des formes bilinéaires pour la résolution de problèmes sur le principe mécanique de l'inertie (L'inertie d'un corps découle de la nécessité d'exercer une force sur celui-ci pour modifier sa vitesse (vectorielle). Ainsi, un corps immobile ou en mouvement rectiligne...)[12] deux ans plus tard. La notion de matrice est finalement définie de manière générale et abstraite[13] par Cayley en 1858.

Le Français Jordan donne la formulation française : valeur propre.
Le Français Jordan donne la formulation française : valeur propre.

Jordan (1838-1922) publie un livre[14] définitif sur les endomorphismes en dimension (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son diamètre si c'est une pièce de...) finie et pour une large famille de nombres, dont les complexes et réels. Jordan analyse le rôle des vecteurs propres et de leur exact domaine d'application dans une théorie maintenant connue sous le nom de réduction d'endomorphisme. La finalité de son texte n'est pas l'algèbre linéaire mais la théorie des groupes et de leurs représentations. La théorie est ainsi présentée dans le contexte des corps finis. Il termine le chapitre des valeurs propres dans le cas de la dimension finie et des corps de nombres algébriquement clos. La terminologie française provient des travaux de Jordan.

Le début du XXe siècle apporte un regard nouveau sur la géométrie. La résolution de l'équation intégrale (Une intégrale est le résultat de l'opération mathématique, effectuée sur une fonction, appelé intégration. Une intégrale est donc composée d'un...) amène certains mathématicien à considérer une géométrie sur les ensembles de fonctions. Frigyes Riesz (1880-1956) utilise des systèmes orthogonaux de fonctions[15]. Erhard Schmidt (1876-1959) soutient sa thèse (Une thèse (du nom grec thesis, se traduisant par « action de poser ») est l'affirmation ou la prise de position d'un locuteur,...) sur un sujet[16] analogue et sous la direction de David Hilbert (1862-1943). Les travaux[17] de Hilbert (1862-1943) apportent à la notion de valeur propre une nouvelle profondeur. Ils correspondent à la formalisation de la démarche intuitive qui avait amené Fourier à la résolution de l'équation de la chaleur (Dans le langage courant, les mots chaleur et température ont souvent un sens équivalent : Quelle chaleur !). Les ensembles de fonctions deviennent un espace vectoriel dont la géométrie est calquée sur celle d'Euclide (Euclide, en grec ancien Εὐκλείδης Eukleidês (né vers -325, mort vers -265 à Alexandrie) est un mathématicien de...). L'équation intégrale devient l'analogue d'un système linéaire et l'application linéaire prend le nom d'opérateur (Le mot opérateur est employé dans les domaines :) différentiel (Un différentiel est un système mécanique qui a pour fonction de distribuer une vitesse de rotation de façon adaptative aux besoins d'un ensemble mécanique.). Une nouvelle branche des mathématiques est né: l'analyse fonctionnelle. Elle devient rapidement le cadre général de résolution d'une large famille de problèmes mathématiques, en particulier l'analyse, les équations différentielles ou les équations aux dérivées partielles. Les valeurs propres sont un des outils essentiels à la résolution de ces problèmes. Elles s'avèrèrent indispensables en physique (La physique (du grec φυσις, la nature) est étymologiquement la « science de la nature ». Dans un sens général et ancien, la...) pour des théories comme la mécanique quantique ou la relativité générale (La relativité générale, fondée sur le principe de covariance générale qui étend le principe de relativité aux référentiels non-inertiels, est une théorie relativiste de la...). Pendant une longue période les anglosaxons utilisent indifféremment les termes de proper value et eigenvalue, provenant respectivement de la traduction des textes de Jordan et de Hilbert. Le vocabulaire est maintenant fixé au bénéfice de la deuxième expression.

Valeur propre et XXe siècle

A la fois dans le contexte de la dimension finie et pour le cas général, le XXe siècle voit un développement massif (Le mot massif peut être employé comme :) de ces théories. Le cas de dimension finie subit deux évolutions : cette théorie est généralisée à d'autres ensembles de nombres que les réels ou les complexes. De plus, des mathématiciens comme Issai Schur, A. Krilov, W. E. Arnoldi ou N. Dunford développent quantités d'algorithmes pour permettre la détermination des valeurs propres. Le cas général est cependant le plus étudié. Il ouvre la voie à une branche importante tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) au long de ce siècle, l'analyse fonctionnelle. La théorie des valeurs propres est alors généralisée à la théorie spectrale. Paul Dirac et John von Neumann (John von Neumann, mathématicien et physicien américain d'origine hongroise, a apporté d'importantes contributions tant en mécanique quantique, qu'en analyse fonctionnelle, en théorie des ensembles, en informatique, en sciences...) étudient ce concept dans un cadre servant de modélisation à la physique. Israel Gelfand, Mark Naimark et Irving Segal appliquent ces concepts à des univers (L'Univers est l'ensemble de tout ce qui existe et les lois qui le régissent.) plus vastes, les C* Algèbres. Sur la base de résultats de géométrie algébrique trouvés par Alexander Grothendieck, Alain Connes (Alain Connes est un mathématicien français, né le 1er avril 1947 à Draguignan (Var).) développe un cas particulier de C* Algèbres, les géométries non commutatives. La théorie spectrale reste encore un large champ (Un champ correspond à une notion d'espace défini:) d'investigations mathématiques, et nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) de problèmes sont toujours ouverts dans ce domaine.

Les valeurs propres, et dans son cas le plus général, la théorie spectrale ouvrent de nombreux champs d'applications à la fois théoriques et appliqués. En mathématique, cette approche permet par exemple la résolution d'équations différentielles, ou d'équations aux dérivées partielles. La physique utilise très largement la théorie spectrale : elle sert de cadre général à la mécanique quantique et permet par exemple l'étude de l'équation de Schrödinger. Les solutions de l'équation de Schrödinger indépendante du temps (Le temps est un concept développé par l'être humain pour appréhender le changement dans le monde.) sont des vecteurs propres. Les théories physiques de la fin du XXe siècle comme les supercordes utilisent largement les notions de spectre dans des cadres mathématiques avancés, par exemple les géométries non commutatives. Les sciences de l'ingénieur (« Le métier de base de l'ingénieur consiste à résoudre des problèmes de nature technologique, concrets et souvent complexes, liés à la conception, à la réalisation et à la mise en œuvre de produits, de systèmes ou de...) ne sont pas en reste, même si elles se cantonnent en général à une approche de dimension finie. Elles utilisent quantité (La quantité est un terme générique de la métrologie (compte, montant) ; un scalaire, vecteur, nombre d’objets ou d’une autre manière de dénommer la valeur d’une...) d'algorithmes issus des calculs de valeurs propres et vecteurs propres. Cette approche permet de résoudre de multiples problèmes tirés par exemple de la mécanique statique (Le mot statique peut désigner ou qualifier ce qui est relatif à l'absence de mouvement. Il peut être employé comme :) ou dynamique (Le mot dynamique est souvent employé désigner ou qualifier ce qui est relatif au mouvement. Il peut être employé comme :), des systèmes électriques et même dans d'autres secteurs comme l'économie.

Définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la division entre les définitions réelles et les définitions nominales.)

Définition intuitive

Une application linéaire est une application qui transforme les vecteurs en conservant les propriétés d'addition (L'addition est une opération élémentaire, permettant notamment de décrire la réunion de quantités ou l'adjonction de grandeurs...) des vecteurs et les rapports de colinéarité (En géométrie vectorielle, deux vecteurs et sont colinéaires si et seulement s'il existe un scalaire k tel que ou .) entre vecteurs. Ainsi, si un vecteur (En mathématiques, un vecteur est un élément d'un espace vectoriel, ce qui permet d'effectuer des opérations d'addition et de multiplication par un...) w est la somme de deux vecteurs u et v, alors l'image de w par l'application est la somme de l'image de u et de l'image de v. De plus l'image par exemple de 3v est 3 fois l'image de v. Plusieurs transformations géométriques usuelles (homothétie de centre 0, rotation de centre 0) sont des applications linéaires.

La figure 2 illustre par un exemple une application linéaire. On remarque que le vecteur orange sombre est la somme des deux vecteurs jaunes avant transformation, et que c'est encore le cas après. De même le vecteur vert (Le vert est une couleur complémentaire correspondant à la lumière qui a une longueur d'onde comprise entre 490 et 570 nm. L'œil humain possède un récepteur, appelé cône...) sombre est le triple du vecteur vert clair avant la transformation, et ça reste le cas une fois qu'on l'a appliquée. On voit un vecteur propre en gris de valeur propre -1 : on passe du vecteur initial au vecteur image par multiplication (La multiplication est l'une des quatre opérations de l'arithmétique élémentaire avec l'addition, la soustraction et la division .) de rapport -1.

  • Un vecteur est dit vecteur propre par une application linéaire s'il est non nul et si l'application ne fait que modifier sa taille sans changer sa direction.
  • Une valeur propre associée à un vecteur propre est le facteur de modification de taille, c’est-à-dire le nombre par lequel il faut multiplier le vecteur pour obtenir son image. Ce facteur peut être négatif (renversement du sens (SENS (Strategies for Engineered Negligible Senescence) est un projet scientifique qui a pour but l'extension radicale de l'espérance de vie humaine. Par une évolution progressive allant du ralentissement du...) du vecteur) ou nul (vecteur transformé en un vecteur de longueur (La longueur d’un objet est la distance entre ses deux extrémités les plus éloignées. Lorsque l’objet est filiforme ou en forme de lacet, sa longueur est celle de l’objet...) nulle).
  • Un espace propre associé à une valeur propre est l'ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut être comprise comme un...) des vecteurs propres qui ont une même valeur propre et le vecteur nul. Ils subissent tous la multiplication par le même facteur.
Fig. 2. Exemple d'application linéaire: une symétrie par rapport à l'axe horizontal central
Fig. 2. Exemple d'application linéaire: une symétrie par rapport à l'axe horizontal (Horizontal est une orientation parallèle à l'horizon, et perpendiculaire à la verticale. Une ligne horizontale va « de la gauche vers la droite » ou vice versa.) central

Définition mathématique

Soit E un espace vectoriel sur \mathbb{K} et u un endomorphisme de E, alors :

  • Le vecteur x de E non nul est dit vecteur propre de u si et seulement s'il existe un élément λ de \mathbb{K} tel que u(x) = λx,
  • le scalaire (Un vrai scalaire est un nombre qui est indépendant du choix de la base choisie pour exprimer les vecteurs, par opposition à un pseudoscalaire, qui est un nombre qui peut dépendre de la base.) λ élément de \mathbb{K} est dit valeur propre de u si et seulement s'il existe un vecteur x non nul de E tel que u(x) = λx,
  • soit λ une valeur propre de u alors l'ensemble constitué des vecteurs propres de valeur propre λ, et du vecteur nul, forme un sous-espace vectoriel de E appelé espace propre de u associé à la valeur propre λ.

Le vocabulaire des éléments propres dans différentes disciplines

  • En mécanique, on étudie les fréquences propres et les modes propres des systèmes oscillants.
  • En analyse fonctionnelle, une fonction propre est un vecteur propre pour un opérateur linéaire, c'est-à-dire une application linéaire agissant sur un espace de fonctions.
  • En géométrie ou en optique (L'optique est la branche de la physique qui traite de la lumière, du rayonnement électromagnétique et de ses relations avec la vision.), on parle de directions propres pour rendre compte de la courbure (Intuitivement, courbe s'oppose à droit : la courbure d'un objet géométrique est une mesure quantitative du caractère « plus ou moins courbé » de cet objet. Par...) des surfaces.
  • En théorie des graphes (Le terme de graphe désigne en mathématiques une opération d'application. Il possède deux acceptions :), une valeur propre est simplement une valeur propre de la matrice d'adjacence du graphe (Le mot graphe possède plusieurs significations. Il est notamment employé :).

Exemples

L'image dans une glace (La glace est de l'eau à l'état solide.) est un bon exemple d'application linéaire. On peut remarquer que tout vecteur collé à la glace donne comme image lui-même. On en déduit que le plan de la glace est un espace propre associé à la valeur propre 1. En revanche, un vecteur perpendiculaire (En géométrie plane, on dit que deux droites sont perpendiculaires quand elles se coupent en formant un angle droit. Le terme de perpendiculaire vient du latin per-pendiculum (fil à plomb) et justifie la généralisation de la notion de...) à la glace donne comme image un vecteur de même longueur, de même direction, mais de sens opposé ( En mathématique, l'opposé d’un nombre est le nombre tel que, lorsqu’il est à ajouté à n donne zéro. En botanique, les organes d'une plante sont dits opposés lorsqu'ils...). On en déduit que ce vecteur est un vecteur propre de valeur propre -1. Enfin un vecteur ni collé ni perpendiculaire donne une image qui n'est pas dans le même axe que lui, ce n'est donc pas un vecteur propre. Dans cet exemple, le comportement des vecteurs propres décrit intégralement l'application, en effet tout vecteur est la somme d'un vecteur dans le plan de la glace et d'un vecteur perpendiculaire. Et la connaissance du comportement dans le plan et dans l'axe perpendiculaire permet la détermination de la transformation de tous les vecteurs, par linéarité.

Il existe une transformation particulière, qui est centrale dans la théorie des valeurs propres. Imaginons comme application linéaire une dilatation qui éloigne par exemple tous les points d'un ballon de baudruche (La baudruche est une pellicule extraite des l'intestin de divers animaux, et, par analogie, une fine pellicule de caoutchouc. Elle est utilisée pour la fabrication de ballons.) de son centre d'un rapport constant. Cette dilatation grandit tous les vecteurs d'un même rapport sans changer leur direction. Tous les vecteurs à l'exception du vecteur nul sont donc des vecteurs propres et il existe une unique valeur propre. On appelle cette application une homothétie (Une homothétie est une transformation géométrique, c'est-à-dire une règle qui associe à chaque point d’un espace un point de ce même espace. On dit aussi que c'est une application mathématique...).

La Terre (La Terre est la troisième planète du Système solaire par ordre de distance croissante au Soleil, et la quatrième par taille et par masse croissantes. C'est la plus grande et...) tourne autour (Autour est le nom que la nomenclature aviaire en langue française (mise à jour) donne à 31 espèces d'oiseaux qui, soit appartiennent au genre...) d'elle-même, et donc tout vecteur qui se situe sur la droite passant par les pôles reste immobile, si l'on ne considère pas le mouvement autour du Soleil (Le Soleil (Sol en latin, Helios ou Ήλιος en grec) est l'étoile centrale du système solaire. Dans la classification...). Les vecteurs de cette droite sont donc des vecteurs propres de valeur propre 1. Tout autre vecteur tournera avec la Terre et donc n'est pas propre. Si on limite l'analyse au plan de l'équateur, alors tous les vecteurs tournent et il n'y a plus de vecteurs propres. Nous retrouverons ce cas particulier dans l'étude des valeurs propres sur les nombres réels.

Fig. 3. Une onde stationnaire sur une corde vibrante est un vecteur propre de l'équation qui régit le mouvement de la corde. Dans cet exemple, ce vecteur est le quatrième. Les points fixes sont en rouge.
Fig. 3. Une onde stationnaire (Une onde stationnaire est le phénomène résultant de la propagation simultanée dans des directions différentes de plusieurs ondes de même fréquence, dans le...) sur une corde vibrante est un vecteur propre de l'équation qui régit le mouvement de la corde. Dans cet exemple, ce vecteur est le quatrième. Les points fixes sont en rouge (La couleur rouge répond à différentes définitions, selon le système chromatique dont on fait usage.).

Les deux premiers exemples traitent d'un cas de dimension 3, comme le monde (Le mot monde peut désigner :) géométrique qui nous entoure. On peut cependant considérer des espaces vectoriels de dimension beaucoup plus vaste. Un exemple d'application est celui de la corde vibrante par exemple celle d'une guitare. Chaque point (Graphie) de la corde oscille autour de sa position au repos. Pour chaque point de la corde, son mouvement peut être considéré comme une dimension d'un espace vectoriel ; l'espace vectoriel ainsi obtenu regroupe les mouvements de tous les points de la corde, il est de dimension infinie. À partir d'une position initiale obtenue par le doigt du guitariste, le mouvement de la corde suit une équation qu'on appelle une équation aux dérivées partielles et qui est linéaire. Les vecteurs propres sont dans ce cas des vibrations qui laissent quelques points fixes, on les appelle des ondes stationnaires. La figure 3 illustre un exemple de vibration. Le premier vecteur propre correspond à l'onde (Une onde est la propagation d'une perturbation produisant sur son passage une variation réversible de propriétés physiques locales. Elle...) avec deux points fixes, les extrémités, le deuxième vecteur propre correspond à l'onde (Une onde est la propagation d'une perturbation produisant sur son passage une variation réversible des propriétés physiques locales. Elle transporte de l'énergie sans transporter de matière. Une onde...) ayant comme point fixe (En mathématiques, pour une application f d’un ensemble E dans lui-même, un élément x de E est un point fixe de f si f(x) = x.) supplémentaire le milieu, le troisième a deux points fixes situés au tiers et au deux tiers en plus des extrémités, etc. Il se trouve que dans ce cas précis, les vecteurs propres décrivent totalement le comportement de la corde. De plus, si l'on tient compte dans l'équation du phénomène d'amortissement alors on remarque que l'essentiel des vecteurs propres se dissipe très vite, seul le premier vecteur propre reste longtemps, il correspond à la note qui sera émise par la corde de la guitare qui dépend donc de la longueur de la corde mais peu de l'impulsion initiale.

Applications en dimension finie

Equation linéaire et valeur propre

Beaucoup de problèmes finissent par se présenter sous la forme de la résolution d'un système d'équations linéaires. C’est-à-dire dans un cas simple à un système de la forme:

\left\{\begin{matrix} 4x + 2y &=& -1 \\ 3x - y &=& 2 \end{matrix}\right.

et dans le cas général:

\left\{\begin{matrix}  a_{1,1}.x_1+a_{1,2}.x_2+\cdots+a_{1,n}.x_{n} &=& b_1 \\ a_{2,1}.x_1+a_{2,2}.x_2+\cdots+a_{2,n}.x_{n} &=& b_2 \\ \vdots & & \vdots \\ \vdots & & \vdots \\ a_{m,1}.x_{1}+a_{m,2}.x_{2}+\cdots+a_{m,n}.x_{n} &=& b_m\end{matrix}\right.

On peut citer comme exemple la mécanique statique (Le mot statique peut désigner ou qualifier ce qui est relatif à l'absence de mouvement. Il peut être employé comme :) avec l'étude du cas d'un pavé (Un pavé est un bloc de forme cubique ou parallélépipédique en pierre ou en béton utilisé dans le domaine de la construction pour le revêtement de sols ou de chaussées par pavage. Il existe également des...) sur une surface (Une surface désigne généralement la couche superficielle d'un objet. Le terme a plusieurs acceptions, parfois objet géométrique, parfois frontière physique, et est souvent...) en pente.

On trouvera alors trois équations linéaires décrivant les forces de haut en bas, de droite à gauche et d'avant en arrière. Si en revanche, on considère l'équilibre statique d'une plate-forme pétrolière, plusieurs centaines d'équations linéaires sont nécessaires au calcul.

S'il est théoriquement possible de résoudre ces systèmes d'équations avec des calculs de déterminants et de comatrices, il n'est pas envisageable d'utiliser pratiquement cette méthode. Elle débouche rapidement sur une complexité (La complexité est une notion utilisée en philosophie, épistémologie (par exemple par Anthony Wilden ou Edgar Morin), en physique, en biologie (par exemple par Henri Atlan), en sociologie, en...) et une longueur de calcul qui n'est de loin pas traitable par les ordinateurs les plus puissants d'aujourd'hui. Ceci est particulièrement vrai dans le cas d'une plateforme pétrolière par exemple.

Les mathématiciens analysent le problème sous un autre angle (En géométrie, la notion générale d'angle se décline en plusieurs concepts apparentés.), le système d'équations est considéré comme la recherche (La recherche scientifique désigne en premier lieu l’ensemble des actions entreprises en vue de produire et de développer les connaissances scientifiques. Par extension métonymique, la recherche scientifique désigne également le cadre...) d'un vecteur x dont son image par l'application linéaire u est égale à b.

u, x et b sont décrits par une matrice et deux jeux de coordonnées:

u: \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} \\ a_{21} & a_{22} & \cdots & a_{2n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{m1} & a_{m2} & \cdots & a_{mn} \end{pmatrix} x: \begin{pmatrix} x_1 \\ x_2\\ \vdots \\ x_n \end{pmatrix} b: \begin{pmatrix} b_1 \\ b_2 \\ \vdots \\ b_m \end{pmatrix}

Il suffit alors de comprendre l'application u pour résoudre plus simplement la question posée. Cette application est une application linéaire d'un ensemble dans lui-même. On appelle endomorphisme une telle application. L'espace vectoriel est décomposé en sous-espaces stables par u, c’est-à-dire que leurs images par u sont incluses dans eux-mêmes. Ils disposent de propriétés bien particulières. À eux tous ils génèrent l'espace vectoriel tout entier, mais l'endomorphisme restreint à ces sous-espaces est particulièrement simple. Un bon exemple est donné par le cas du miroir (Un miroir est un objet possédant une surface suffisamment polie pour qu'une image s'y forme par réflexion et conçu à cet effet. C'est souvent une couche métallique fine, qui, pour être...). Sur la surface du miroir l'application est simple : elle ne modifie rien ; sur la droite des vecteurs perpendiculaire l'application a pour image, le vecteur opposé, et tout vecteur est bien la somme d'une composante sur le miroir et d'une perpendiculaire.

Illustration par un exemple numérique (Une information numérique (en anglais « digital ») est une information ayant été quantifiée et...)

Soit une équation linéaire (Une équation est dite linéaire quand elle s'exprime à l'aide d'une application linéaire. Elle se présente sous la forme u(x)=b, où u est une application linéaire entre deux espaces...) dont la matrice A est donnée (Dans les technologies de l'information (TI), une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un événement, etc.) ci-dessous. La résolution par inversion impose des calculs longs et complexes. Une approche fondée par les valeurs et les vecteurs propres, la réduction de Jordan (La réduction de Jordan est la traduction matricielle de la réduction des endomorphismes introduite par Jordan. Cette réduction est tellement employée, en particulier en analyse pour la résolution d'équations différentielles ou...) (l'article contient le traitement numérique en exemple n° 2), montre que cette matrice est semblable à la matrice J:

A = P.J.P^{-1} \begin{pmatrix}  5 &  4 &  2 &  1 \\  0 &  1 & -1 & -1 \\ -1 & -1 &  3 &  0 \\   1 &  1 & -1 &  2 \end{pmatrix} \; J=\begin{pmatrix} 4 & 1 & 0 & 0 \\ 0 & 4 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \; et \;   P=\begin{pmatrix} -1 &  0 &  1 & -1\\  0 &  0 & -1 &  1\\   1 & -1 &  0 &  0\\ -1 &  1 &  1 &  0\end{pmatrix}

Le problème, portant initialement sur la matrice A est alors ramené à la matrice J, et est donc largement simplifié. Dans cet exemple, les valeurs propres de A et de J sont les coefficients diagonaux de J : 4,2,1 ; à chacune de ces valeurs propres est associé un sous-espace propre, il est ici de dimension 1 pour chacune : la raison, pour 1 et 2, est que ces coefficients n'apparaissent qu'une fois sur la diagonale (On appelle diagonale d'un polygone tout segment reliant deux sommets non consécutifs (non reliés par un côté). Un polygone à n côtés possède diagonales.) de J ; pour 4, bien qu'ils apparaissent deux fois, la dimension du sous-espace propre associé ne peut être 2, à cause de la présence du coefficient (En mathématiques un coefficient est un facteur multiplicatif qui dépend d'un certain objet, comme une variable (par exemple, les coefficients d'un polynôme), un espace vectoriel,...) 1 au-dessus de la diagonale.

Il est toutefois à noter que cette problématique, même si elle est la première à être apparue en algèbre linéaire, n'a pas ouvert la voie de la notion développée (En géométrie, la développée d'une courbe plane est le lieu de ses centres de courbure. On peut aussi la décrire comme l'enveloppe de la famille des droites normales à la...) dans cet article.

Méthode générale de résolution en dynamique

Article détaillé : Systèmes oscillants à un degré de liberté

Fig. 3. Une masse oscillante, attachée à un ressort, et avec un frottement visqueux.
Fig. 3. Une masse (Le terme masse est utilisé pour désigner deux grandeurs attachées à un corps : l'une quantifie l'inertie du corps (la masse inerte) et l'autre la contribution du corps à...) oscillante, attachée à un ressort, et avec un frottement (Les frottements sont des interactions qui s'opposent à la persistance d'un mouvement relatif entre deux systèmes en contact.) visqueux.

Si la problématique précédente n'a pas suffi, c'est essentiellement à cause d'une absence de concept de base. La géométrie d'alors est formalisée par le concept de point. Les points ne s'additionnent pas, ils ne possèdent pas de propriétés algébriques. La notion d'espace vectoriel actuel, n'existait pas. Hamilton, le mathématicien anglais s'est penché sur un problème où l'addition et la multiplication scalaire sont naturelles. Ce problème lui a été fourni (Les Foúrnoi Korséon (Grec: Φούρνοι Κορσέων) appelés plus communément Fourni, sont un archipel de petites...) par la physique: les systèmes oscillants.

Le cas de la figure 3 illustre cette situation (En géographie, la situation est un concept spatial permettant la localisation relative d'un espace par rapport à son environnement proche ou non. Il inscrit un lieu dans un cadre plus général afin de le qualifier à...). La masse est attachée à un ressort et subit un amortissement visqueux (ce qui signifie que la dissipation due aux frottements est proportionelle à la vitesse). Il n'existe aucune force (Le mot force peut désigner un pouvoir mécanique sur les choses, et aussi, métaphoriquement, un pouvoir de la volonté ou encore une vertu morale « cardinale »...) extérieure, et le système oscillant vérifie l'équation différentielle linéaire suivante avec les notations de l'article Systèmes oscillants à un degré (Le mot degré a plusieurs significations, il est notamment employé dans les domaines suivants :) de liberté :

(1)\quad M \ddot{x} + B \dot{x} + K x \; =\; 0

Cette équation utilise les dérivées secondes, c'est la raison pour laquelle on appelle ce type d'équation, une Équation différentielle linéaire d'ordre deux. Cependant, il est possible de ramener une équation d'ordre deux, à une équation d'ordre un à condition de doubler la dimension de l'espace (cf Équation différentielle linéaire). Ici, l'espace vectoriel devient de dimension 2 avec un premier axe correspondant à la vitesse, noté v, et un deuxième à la position, noté x. Si l'analyse du mouvement commence par convention à l'instant (L'instant désigne le plus petit élément constitutif du temps. L'instant n'est pas intervalle de temps. Il ne peut donc être considéré comme une durée.) t0 = 0, l'équation (1) s'écrit alors sous la forme:

Fig. 4. Trajectoire en fonction de l'amortissement.
Fig. 4. Trajectoire (La trajectoire est la ligne décrite par n'importe quel point d'un objet en mouvement, et notamment par son centre de gravité.) en fonction de l'amortissement.

\frac{d}{dt}\phi \; = \;a.\phi \quad et \quad \phi (0)=\phi_0 \;

avec \qquad \phi : \begin{pmatrix} v \\ x \end{pmatrix}\quad a : M^{-1}\begin{pmatrix} -B & -M \\ K & 0 \end{pmatrix}\quad \phi_0:\begin{pmatrix} v_0 \\ x_0 \end{pmatrix}

La solution d'une telle équation est connue, et s'écrit de la manière suivante:

\phi (t) = \exp (ta)(\phi_0)\; avec \; \exp (ta)=\sum_{n=0}^{+\infty} \frac{t^n a^n}{n!} \;

La preuve du fait que l'exponentielle (La fonction exponentielle est l'une des applications les plus importantes en analyse, ou plus généralement en mathématiques et dans ses domaines d'applications. Il existe plusieurs définitions équivalentes : un...) est bien la solution est donnée (Dans les technologies de l'information, une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction,...) dans l'article Diagonalisation (La diagonalisation est un procédé d'algèbre linéaire. Il s'applique à des endomorphismes d'un espace vectoriel. Il consiste à rechercher une base de l'espace vectoriel constituée de vecteurs...). Il apparaît nécessaire de calculer une exponentielle d'endomorphisme, qui dépend de toutes les puissances de cet endomorphisme. Ce problème est résolu par Hamilton grâce à la notion de valeurs et vecteurs propres : en effet, s'il existe une base de vecteurs propres pour l'endomorphisme a, avec pour valeurs propres λ1 et λ2 et si A est l'écriture matricielle de a ; c'est-à-dire s'il existe une matrice de passage (Une matrice de passage permet d'écrire des formules de changement de base pour les représentations matricielles des vecteurs, des endomorphismes, des formes bilinéaires.) P telle que:

A=P^{-1}\begin{pmatrix} \lambda_1 & 0 \\ 0 & \lambda_2 \end{pmatrix}P\;

alors :

\exp(tA)=\sum_{n=0}^{+\infty} \frac{t^n P^{-1}A^nP}{n!}=P^{-1}\left(\sum_{n=0}^{+\infty} \frac{t^n}{n!}\begin{pmatrix} \lambda_1^n & 0 \\ 0 & \lambda_2^n \end{pmatrix}\right)P=P^{-1} \begin{pmatrix} \ e^{\lambda_1 t} & 0 \\ 0 & e^{\lambda_2 t} \end{pmatrix} P\;

La solution, tant pour la position que pour la vitesse est donc une combinaison (Une combinaison peut être :) linéaire d'exponentielles. Le calcul général de l'exponentielle d'un endomorphisme, ainsi que les justifications théoriques sont traités dans l'article Réduction d'endomorphisme.

S'il existe deux valeurs propres réelles, alors la solution est de même nature que la courbe (En géométrie, le mot courbe, ou ligne courbe désigne certains sous-ensembles du plan, de l'espace usuels. Par exemple, les droites, les segments, les lignes polygonales et les...) bleue sur la figure 4. L'amortissement ramène sans oscillation (Une oscillation est un mouvement ou une fluctuation périodique. Les oscillations sont soit à amplitude constante soit amorties. Elles répondent aux mêmes équations quel que soit le domaine.) la masse à sa position d'équilibre. En revanche, s'il n'existe pas de valeur propre réelle, il est nécessaire d'en trouver dans les nombres complexes. La solution est alors donnée par la partie réelle de la matrice, et on obtient une trajectoire de même nature que la courbe rouge, avec des oscillations avant d'atteindre le point d'équilibre. La physique est source de nombreux exemples de problèmes linéaires de dimension finie où les valeurs propres représentent la bonne approche pour la résolution. On les trouve par exemple dans l'analyse des circuits électriques.

Principe d'inertie de Sylvester

Formulation du principe d'inertie de Sylvester

Fig 6. Axe des moments d'inertie.
Fig 6. Axe des moments d'inertie.

Sylvester analyse l'énergie (Dans le sens commun l'énergie désigne tout ce qui permet d'effectuer un travail, fabriquer de la chaleur, de la lumière, de produire un mouvement.) que l'on doit transmettre à un solide pour lui donner une vitesse de rotation vr. Il remarque que le vecteur propre représente dans ce contexte un axe de rotation privilégié. La valeur propre correspond à la grandeur appelée en physique moment d'inertie, elle est inversement proportionnelle à l'énergie à fournir pour atteindre une vitesse de rotation vr. Pour atteindre cette vitesse avec le moins d'énergie, il est nécessaire de choisir l'axe ayant le plus faible moment d'inertie, c’est-à-dire celui où l'ellipsoïde (En mathématiques, un ellipsoïde est une surface du second degré de l'espace euclidien à trois dimensions. Il fait donc partie des quadriques, avec pour caractéristique principale de ne pas...) de la figure 5 est le plus aplati. La théorie montre que l'axe où l'inertie est la plus forte est toujours perpendiculaire à celui du plus faible moment d'inertie. Cette perpendicularité (En géométrie plane, on dit que deux droites sont perpendiculaires quand elles se coupent en formant un angle droit. Le terme de perpendiculaire vient du latin per-pendiculum (fil à plomb) et justifie la...) correspond à l'existence d'une base orthonormale (Soit En un espace vectoriel euclidien de dimension n, où n est un entier naturel non nul, et , une base de En.) de vecteurs propres.

Le cas du balai de la figure 6, illustre par un exemple le phénomène. L'axe de plus faible moment d'inertie est indiqué par la flèche 1. Il est intuitif que l'énergie nécessaire pour obtenir la même vitesse de rotation selon l'axe de la flèche 2 sera largement supérieure. Les vecteurs propres et les valeurs propres apparaissent comme des caractéristiques propres de la géométrie de l'objet (De manière générale, le mot objet (du latin objectum, 1361) désigne une entité définie dans un espace à trois dimensions, qui a une fonction précise, et qui peut être désigné par une étiquette verbale. Il...), dans ce cas les axes privilégiés de rotations, (il est possible de prendre un axe de rotation au hasard (Dans le langage ordinaire, le mot hasard est utilisé pour exprimer un manque efficient, sinon de causes, au moins d'une reconnaissance de cause à effet d'un événement.), mais les autres axes imposeront des tensions sur l'axe) et les valeurs propres les moments d'inertie associés.

Une approche similaire s'applique en mécanique des milieux continus pour l'analyse des déformations élastiques comme la torsion (La torsion est la déformation subie par un corps soumis à l'action de deux couples opposés agissant dans des plans parallèles.), on parle alors de tenseur des contraintes.

Application en statistique (La statistique est à la fois une science formelle, une méthode et une technique. Elle comprend la collecte, l'analyse, l'interprétation de...)

Article détaillé Analyse en composantes principales

L'approche de Sylvester est utilisée dans de nombreux domaines pour comprendre la géométrie d'un phénomène. Les techniques statistiques de dépouillements de sondage ( Un sondage peut désigner une technique d'exploration locale d'un milieu particulier. Un sondage peut également être une méthode statistique d'analyse d'une population humaine ou non humaine à partir d'un échantillon de cette...) en sont un parfait exemple. Soit un sondage, réalisé sur un échantillon (De manière générale, un échantillon est une petite quantité d'une matière, d'information, ou d'une solution. Le mot est utilisé dans différents domaines :) de cent personnes et contenant six critères. S'il est possible d'évaluer chaque question par un critère numérique, alors une analyse en composante principale est possible. Elle permet d'interpréter les résultats du sondage.

Les résultats du sondage, sont dans un premier temps normalisés pour qu'un critère, qui par exemple prend des valeurs entre un et cent ne soit pas dix fois plus important qu'un autre prenant des valeurs de un à dix. Le résultat du sondage est alors considéré comme un solide dans un espace comportant autant de dimensions que de critères.

Figure 7. Résultat du sondage
ACP Réussie, l'axe principal est explicatif.
ACP Réussie, l'axe principal est explicatif.
Exemple de deux questions aux réponses corrélées.
Exemple de deux questions aux réponses corrélées.
Exemple de deux questions aux réponses non corrélées.
Exemple de deux questions aux réponses non corrélées.

La première figure représente l'ACP sur les deux premiers vecteurs propres, qu'on appelle en statistiques composantes principales. Les valeurs sont rassemblées autour de cet axe, ce qui signifie qu'il est le plus explicatif. Ce caractère explicatif est donné par le carré (Un carré est un polygone régulier à quatre côtés. Cela signifie que ses quatre côtés ont la même longueur et ses quatre angles la même mesure. Un carré est...) de la valeur propre. Dans l'exemple fictif, il est dû à deux critères fortement corrélés. Ce phénomème est visible sur la deuxième figure, les deux critères corrélés sont représentés. Là encore ces critères se rassemblent autour d'une droite, dans l'exemple cette droite est la droite de la composante principale (celle à la valeur propre la plus forte). Ces coordonnées sur ses deux critères sont respectivement 0,506 et -0,491. Si les critères sont revenu et surcharge pondérale, alors le sondage indique que l'obésité (L'obésité est l'état d'une personne, ou d'un animal, souffrant d'une hypertrophie de la masse adipeuse, qui se traduit par un excès de poids, réparti de façon...) frappe en priorité les revenus les plus faibles. La troisième figure illustre un cas, ou la corrélation entre deux critères est faible. Si les critères sont taille et niveau d'étude, alors un tel graphique indique que la taille n'est pas un critère différenciant pour le niveau d'étude.

Cet exemple illustre encore que dans le cas analysé par Sylvester, les valeurs et vecteurs propres ne sont pas uniquement des méthodes de calculs, mais aussi des éléments constitutifs de la géométrie du problème considéré.

Application en relativité

Fig 7'. Le principe d'inertie de Sylvester en relativité
Fig 7'. Le principe d'inertie de Sylvester en relativité

Article détaillé: Relativité restreinte

A travers les moments d'inertie d'un solide, Sylvester ne s'est pas trompé sur le titre de son article de 1852 Théorie des invariants algébriques. Les valeurs propres, qui sont les invariants, dépassent de loin le cadre des moments d'inertie. La géométrie de l'espace-temps relativiste est un autre exemple. Ici la forme bilinéaire (Soit E, F et G trois espaces vectoriels sur un corps . Soit une application, on dit que est bilinéaire si et seulement si elle est linéaire en chacune de ses variables, c'est-à-dire: : ) ne décrit plus le moment d'inertie d'un solide indéformable, mais une modélisation de la géométrie même de notre univers.

La figure 7' représentative de cette géométrie est néanmoins fort différente (En mathématiques, la différente est définie en théorie algébrique des nombres pour mesurer l'éventuel défaut de dualité d'une application définie à l'aide de la trace,...) des illustrations précédentes. Il existe un axe particulier, où le carré de la distance possède une propriété spéciale: il est négatif. La bonne distance de cette théorie n'est plus toujours positive. Un vecteur de coordonnées (x, y,z, t) a pour image x2+y2+z2-c2.t2. Hermann Minkowski 1864-1909 développe une approche mathématique fondée sur ces principes en 1907 dans un article intitulé Espace-temps, et l'applique à la relativité l'année (Une année est une unité de temps exprimant la durée entre deux occurrences d'un évènement lié à la révolution de la Terre autour du Soleil.) suivante.

Le cône d'inertie de la figure 7 représente l'univers pour un observateur au point A. Le point C possède une distance négative, pour l'atteindre il faudrait une vitesse supérieure à la lumière (La lumière est l'ensemble des ondes électromagnétiques visibles par l'œil humain, c'est-à-dire comprises dans des longueurs d'onde...), ce qui, dans le contexte de cette théorie n'est pas réalisable. Il est donc inobservable et n'a aucune influence directe ou indirecte sur l'observateur. Le point B est dans ce que l'on appelle le cône de lumière, c'est un point possible, il pourra interagir avec l'observateur.

Dans le cas qui intéresse Minkowski, les endomorphismes qui traduisent les lois physiques d'un observateur à un autre observateur, jouent un rôle important ; ce sont ceux qui vérifient l'équation < u(x),u(y) > = < x,y > , où < , > est la forme bilinéaire qui décrit la géométrie considérée. Ces endomorphismes laissent la géométrie invariante, ils correspondent dans une modélisation euclidienne aux isométries. Dans la géométrie de la relativité, 1 est valeur propre et son espace propre associé est de dimension 3 et i.c est valeur propre de sous-espace propre associé de dimension 1, où i désigne le nombre imaginaire et c la célérité (La célérité (traditionnellement notée c) est la vitesse de propagation d'un phénomène ondulatoire. Elle varie selon les composantes fréquentielles de l'onde et son milieu de propagation.) de la lumière. On parle de signature de Sylvester (3,1). Toutes les lois physiques doivent être invariantes par ces endomorphismes. Ces endomorphismes forment une structure de groupe, appelé groupe spécial unitaire, la relativité revient à réécrire la physique en lois laissées invariantes par le groupe spécial unitaire de dimension 4 et de signature (3,1).

Représentation des groupes

Article détaillé: Représentation des groupes

Fig. 8. Exemple d'application linéaire: une symétrie par rapport à l'axe horizontal central
Fig. 8. Exemple d'application linéaire: une symétrie par rapport à l'axe horizontal central

L'analyse par vecteurs et valeurs propres possède aussi comme domaine d'application la représentation des groupes. Une structure de groupe est parmi celles dont la définition algèbrique est la plus simple, c'est un ensemble muni d'une seule opération notée souvent comme la multiplication. Si la définition est simple, en revanche, ces structures s'avèrent parfois suffisamment complexes pour que leur théorie ne soit pas encore complètement (Le complètement ou complètement automatique, ou encore par anglicisme complétion ou autocomplétion, est une fonctionnalité...) connue. Comme exemple de groupe, il est possible de citer celui des rotations du cube (En géométrie euclidienne, un cube est un prisme dont toutes les faces sont carrées. Les cubes figurent parmi les solides les plus remarquables de l'espace. C'est un des cinq solides de Platon, le seul ayant exactement 6...) qui laissent son enveloppe invariante. La figure 8 montre que ce groupe est généré par trois permutations, celle qui place la face 1 en position 2, représentée par la flèche rouge, celle représentée par la verte et enfin la bleue. Au total ( Total est la qualité de ce qui est complet, sans exception. D'un point de vue comptable, un total est le résultat d'une addition, c'est-à-dire une somme. Exemple : "Le total des dettes". En physique le total n'est pas forcément...) ce groupe comporte 24 éléments. Une représentation d'un groupe consiste à une identification de ses éléments avec des endomorphismes de telle manière à ce que l'opération du groupe corresponde à la composition d'endomorphisme. Ainsi dans l'exemple de la figure, il existe une identification naturelle entre le groupe abstrait des 24 rotations du cube avec un groupe de rotations dans un espace de dimension 3.

Cette approche permet alors de disposer des outils comme les vecteurs ou valeurs propres pour l'analyse de la structure des groupes. La théorie montre que les espaces propres d'une représentation correspondent à la partie commutative du groupe. Dans le cas d'un groupe entièrement commutatif, il existe une base de vecteurs propres pour toute la représentation. Cette approche démontre, par exemple que les groupes commutatifs finis sont des produits de cycles. La démonstration est donnée dans l'article Diagonalisation.

La représentation des groupes finis (c’est-à-dire ayant un nombre fini d'éléments) joue (La joue est la partie du visage qui recouvre la cavité buccale, fermée par les mâchoires. On appelle aussi joue le muscle qui sert principalement à ouvrir et fermer la...) un rôle important dans la théorie des vecteurs propres. Elle a permis à Jordan, dans un contexte relativement général, de comprendre totalement le champ d'application et les limites d'une approche par vecteurs propres. Des conditions nécessaires et suffisantes d'existence de vecteurs propres ou de bases de vecteurs propres sont alors connues. De plus, les cas où il n'existe pas de base de vecteurs propres sont élucidés ainsi que la structure exacte des endomorphismes entrant dans cette catégorie et la proportion d'endomorphismes de cette nature dans l'ensemble de tous les endomorphismes.

Si le contexte est relativement général, il ne couvre pas tous les cas d'espaces vectoriels connus. La théorie de Jordan se limite à la dimension finie avec un corps de nombre algébriquement clos. Un corps est dit algébriquement clos si tous ses polynômes ont au moins une racine. Ce contexte est néanmoins suffisamment général pour couvrir toutes les applications citées dans ce chapitre.

Théorie en dimension finie

Approche élémentaire

Article détaillé : Polynôme caractéristique

Une première remarque simplifie l'étude. Si λ est une valeur propre d'un endomorphisme u, alors un vecteur propre est un vecteur non nul qui a pour image 0 par l'application u - λ.Id, où Id désigne l'application identité (En mathématiques, sur un ensemble X donné, la fonction identité est la fonction, notée id qui à tout élément x de X associe lui-même :). L'espace propre associé à λ est l'ensemble des vecteurs qui ont pour image 0 par cette application. On appelle cet ensemble le noyau de l'endomorphisme u - λ.Id. Les propriétés générales établissent que cet ensemble est un sous espace vectoriel. Celui-ci est non réduit à 0 par définition d'une valeur propre.

Une fonction importante, en particulier dans notre cadre, est la fonction déterminant. Elle fut la première à être étudiée systématiquement dans le monde de l'algèbre linéaire. Elle associe à un endomorphisme un nombre. Son intérêt réside notamment dans le fait que le déterminant d'un endomorphisme est nul si et seulement s'il existe des vecteurs non nuls qui ont pour image le vecteur nul par cet endomorphisme, c'est-à-dire si et seulement si 0 est une valeur propre pour cet endomorphisme. Le déterminant de l'application u - λ.Id est appelé le polynôme caractéristique. Ces remarques fournissent les premières propriétés :

  • Soit λ une valeur propre, alors l'espace propre de valeur propre λ est le sous-espace vectoriel égal au noyau de u - λ.Id,
  • un espace propre est un sous-espace vectoriel,
  • les racines du polynôme caractéristique sont les valeurs propres.

Cette dernière propriété montre que l'existence de racines de polynômes a une influence sur la théorie des valeurs propres. En fait, l'existence même des valeurs propres dépend de l'existence de racines pour les polynômes, par exemple le polynôme caractéristique. C'est pourquoi dans le cadre du corps des nombres complexes, qui est algébriquement clos d'après le théorème (Un théorème est une proposition qui peut être mathématiquement démontrée, c'est-à-dire une assertion qui peut être établie comme vraie au travers d'un raisonnement logique construit à partir...) de d'Alembert-Gauss, les propriétés liées aux valeurs propres s'énonceront plus simplement que dans le cadre du corps des réels.

Cas où l'endomorphisme est diagonalisable

Article théorique: Diagonalisation, article appliqué: Matrice diagonalisable

Fig. 10. Modification d'un parrallélotope dont les cotés sont formés par une base de vecteurs propres par un endomorphisme diagonalisable.
Fig. 10. Modification d'un parrallélotope dont les cotés sont formés par une base de vecteurs propres par un endomorphisme diagonalisable.

Le concept de l'article est particulièrement clair dans le cas où le comportement de l'endomorphisme est entièrement décrit par les vecteurs et valeurs propres. L'endomorphisme est alors dit diagonalisable.

Un endomorphisme est dit diagonalisable si et seulement s'il existe une base de vecteurs propres.

C'est le cas du premier exemple, celui du miroir. Une base peut alors être choisie en prenant deux vecteurs libres dans le plan de la glace et un troisième perpendiculaire à ce plan. Les deux premiers vecteurs ont pour images eux-mêmes et sont donc de valeur propre 1 et le dernier est de valeur propre -1. Cette situation est intéressante à trois titres: elle correspond à un cas simple à traiter, elle est sous certaines hypothèses fréquente, enfin il existe de multiples critères pour la repérer.

  • La simplicité de cette situation provient de deux faits. Il existe une décomposition (En biologie, la décomposition est le processus par lequel des corps organisés, qu'ils soient d'origine animale ou végétale dès l'instant qu'ils sont privés de vie, dégénèrent sous l'action de...) de l'espace en sous-espaces stables, simples en eux-mêmes, et sur lesquels l'endomorphisme est simple à décrire. Ces sous-espaces sont simples car de dimension 1 : ce sont des droites. La linéarité de l'endomorphisme permet de connaître exhaustivement le comportement de la transformation, une fois compris le comportement sur ces droites. Enfin la restriction de l'endomorphisme à ces droites est une homothétie, c’est-à-dire une dilatation, d'un facteur la valeur propre. Un exemple de cette situation est donné par la figure 10 : un parallélotope jaune (Il existe (au minimum) cinq définitions du jaune qui désignent à peu près la même couleur :) dont les arêtes sont la base de vecteurs propres, l'image par l'endomorphisme est un parallélotope dont les arêtes ont gardé les mêmes directions, mais dont les longueurs ont été modifiées.

Cette simplicité ouvre la voie à de nombreuses applications évoquées précédemment dans l'article. Elle permet par exemple le calcul d'une exponentielle d'endomorphisme et par conséquent la résolution de nombreux problèmes mécaniques.

Fig. 11. Nappe représentant l'adhérence des endomorphismes non diagonalisables sur le corps des complexes.
Fig. 11. Nappe représentant l'adhérence des endomorphismes non diagonalisables sur le corps des complexes.
  • Cette situation est aussi fréquente. La figure 11 en est une illustration dans le cas où l'espace vectoriel est de dimension 2 sur les nombres réels. L'ensemble des endomorphismes est alors un espace de dimension 4 : tout endomorphisme admet une représentation matricielle de la forme \begin{pmatrix}a&b\\c&d\end{pmatrix}. Pour obtenir une représentation graphique en dimension 3, les coefficients b et c de la représentation matricielle sont représentés uniquement par un axe à travers la valeur -b.c. En utilisant les critères de diagonalisabilité, on constate qu'une nappe particulière, de dimension 2, apparaît dans cette représentation (elle serait de dimension 3, si on pouvait tout représenter dans l'espace, de dimension 4, des endomorphismes). Cette nappe correspond à une situation limite pour la diagonalisabilité : la zone en-dessous de la nappe contient des endomorphismes diagonalisables, la zone au-dessus contient des endomorphismes diagonalisables seulement sur les nombres complexes. Dans la représentation choisie, les endomorphismes diagonalisables sur les nombres complexes occupent donc presque tout l'espace ; c'est en cela que le cas de diagonalisabilité est fréquent. En revanche les endomorphismes qui sont diagonalisables même sur les réels en occupent essentiellement la moitié. Cette situation de fréquence (En physique, la fréquence désigne en général la mesure du nombre de fois qu'un phénomène périodique se reproduit par unité de temps. Ainsi lorsqu'on emploie le mot...) est à mettre en relation avec la situation des polynômes à coefficients réels, dont les racines sont réelles, ou seulement complexes. On trouve en particulier dans la zone des endomorphismes diagonalisables sur les nombres complexes seulement : les rotations, dont un exemple avait été donné par la rotation de la Terre sur elle-même. Enfin, pour ce qui est de la nappe elle-même, deux types de situations s'y présentent. La droite horizontale d'équation a = d avec b = c = 0 représente la droite des homothéties, du même type que le deuxième exemple de l'article. Les autres points de la nappes représentent les seuls endomorphismes non diagonalisables.
  • Enfin il existe de multiple critères pour caractériser un endomorphisme diagonalisable. Une première approche consiste à étudier le polynôme caractéristique. Une autre largement plus sophistiquée consiste à étudier les polynômes de l'endomorphisme. L'un des concept clé est alors le polynôme minimal (Le polynôme minimal est un outil qui permet d'utiliser des résultats de la théorie des polynômes à l'algèbre linéaire. Il est en effet possible d'appliquer un polynôme à un endomorphisme, comme expliqué dans l'article...) qui fournit, par exemple, un critère de diagonalisation particulièrement simple.

Les critères associés à la diagonalisation sont données dans la boite déroulante suivante. Les articles contenant les preuves sont systématiquements cités.

Cas Complexe

Fig. 12. Exemple d'image d'une base par un endomorphisme nilpotent en dimension 3.
Fig. 12. Exemple d'image d'une base par un endomorphisme nilpotent (Un endomorphisme nilpotent est un endomorphisme c’est-à-dire une application linéaire d'un espace vectoriel dans lui même, qui, composé par lui-même un...) en dimension 3.

Article détaillé : Réduction de Jordan

La figure 11 montre que, même dans le cas où le corps est celui des nombres complexes, il reste encore des cas à élucider, celui des endomorphismes qui se situent sur la nappe, mais pas sur la droite des homothéties. Dans le cas des systèmes d'équations différentiels linéaires, il n'intervient que comme un cas limite, dans l'approche de Sylvester, il n'apparaît plus du tout. En revanche dans la théorie des groupes, ce cas est important. Ce type d'endomorphisme permet la représentation des groupes non commutatifs. Si ces groupes sont infiniement différentiable, alors ils permetttent la représentation d'un cas important, celui des groupes de Lie nilpotent (En mathématiques, un élément x d'un anneau R est appelé nilpotent s'il existe un certain nombre entier positif n tel que .).

Pour élucider cette problématique, les méthodes utilisées sont celles mises au point par Nelson Dunford. L'outil essentiel consiste à considérer les combinaisons linéaires de puissance de l'endomorphisme. On obtient ainsi un polynôme d'endomorphisme. Ces polynômes forment une structure d'algèbre commutative doté d'un morphismes de l'ensemble des polynômes vers cette algèbre. Cette approche est féconde, on la retrouve aussi dans l'étude du cas où la dimension n'est plus finie. La théorie associée à cette approche se trouve dans l'article Polynôme d'endomorphisme, et l'application au cas traité ici dans Décomposition de Dunford (La décomposition de Dunford s'inscrit dans la problématique de la réduction d'endomorphisme. Cette approche consiste à décomposer l'espace...).

Le résultat remarquable est qu'il n'existe dans ce contexte qu'une unique exception structurelle au cas diagonalisable. C'est le cas où l'endomorphisme u à la puissance p, où p est un entier, est égal à 0. On dit alors que l'endomorphisme est nilpotent. On peut considérer par exemple en dimension 3, si (e1, e2, e3, ) est une base l'endomorphisme qui vérifie u(e1)=e2, u(e2)=e3 et u(e3)=0. Cet endomorphisme n'est clairement pas nul son polynôme caractéristique est égal à x3 donc la seule valeur propre est 0. Cet exemple est illustré en figure 12.

Camille Jordan a prouvé que dans ce contexte, tout endomorphisme est somme d'un endomorphisme diagonalisable et d'un endomorphisme nilpotent et qu'ils commutent entre eux. L'application de la théorie des endomorphismes montre que le cas nilpotent dispose d'une représentation matricielle particulièrement simple et trigonale supérieure. Dans le cas général, cette représentation s'appelle la réduction de Jordan, elle démontre aussi que, dans ce cas, toute matrice est semblable à une matrice triangulaire (En algèbre linéaire, les matrices triangulaires sont des matrices carrées dont une partie triangulaire des valeurs, délimitée par la diagonale principale, est nulle.).

Cas Réel

Fig. 13. Rotation de la terre.
Fig. 13. Rotation de la terre.

Sur les réels un polynôme n'admet pas toujours de racine. Dans notre troisième exemple, celui de la rotation de la terre, l'espace est de dimension 3, or tout polynôme du troisième degré possède une racine sur les réels. En conséquence, il existe au moins une droite de vecteurs propres. C'est l'axe des pôles dans notre exemple. En revanche, dans le cas de dimension paire (On dit qu'un ensemble E est une paire lorsqu'il est formé de deux éléments distincts a et b, et il s'écrit alors :), par exemple la restriction de cette application au plan illustré en bleu (Bleu (de l'ancien haut-allemand « blao » = brillant) est une des trois couleurs primaires. Sa longueur d'onde est comprise approximativement entre 446 et 520 nm. Elle varie en luminosité du cyan à une teinte...) sur la figure 13 de l'équateur, l'existence de valeur propre n'est plus garantie. Ici, une analyse géométrique nous montre qu'il est vain de chercher un vecteur propre car la rotation modifie la direction de tous les vecteurs non nuls.

Dans le cas complexe, nous avons vu que seul un terme nilpotent peut interdire la diagonalisation. Dans le cas réel, une fois retranché le terme nilpotent, seul les rotations empêchent la diagonaliation. Il existe alors deux manières de réduire le cas réel.

La première solution consiste à plonger l'endomorphisme dans un espace vectoriel complexe. C'est la solution la plus simple et la plus fréquente. La réduction de l'endomorphisme y est alors plus aisée. Une fois cette réduction réalisée, l'application de cette réduction à des vecteurs réels donnent toujours des solutions réelles.

La deuxième solution consiste à affaiblir la réduction. Tout endomorphisme sur les nombres réels est la somme du produit d'un endomorphisme diagonalisable et d'une rotation avec un endomorphisme nilpotent. L'endomorphisme diagonalisable commute avec l'application nilpotente et la rotation. En revanche, l'application nilpotente ne commute pas avec la rotation.

Démonstration dans Réduction d'endomorphisme

Cas d'un Module sur un anneau

Les définitions n'utilisent pas le fait que \mathbb{K} soit un corps. Ces définitions ont donc encore un sens dans le cas ou E n'est pas un espace vectoriel mais un Module sur un anneau. Si l'anneau n'est pas commutatif, on parlera alors de valeur propre à droite ou de valeur propre à gauche. Si l'anneau est commutatif on parlera simplement de valeur propre.

Cas des formes bilinéaires

Article associé: Théorème spectral

Fig 5. L'image d'une sphère par un endomorphisme autoadjoint
Fig 5. L'image d'une sphère (En mathématiques, et plus précisément en géométrie euclidienne, une sphère est une surface constituée de tous les points...) par un endomorphisme autoadjoint

Les endomorphismes sont aussi utilisés pour représenter des formes bilinéaires, qui sont des objets de même nature que les distances euclidiennes. Les valeurs et vecteurs propres prennent dans ce contexte une signification particulière.

Les formes bilinéaires sont des fonctions qui ne sont pas linéaires, mais quadratiques, au sens où la fonction ne s'exprime plus comme une combinaison linéaire de coordonnées, c'est-à-dire un polynôme (à plusieurs variables) de degré 1 en les coordonnées, mais comme un polynôme du second degré en les coordonnées. La distance euclidienne sur l'espace \mathbb{R}^3 est par exemple obtenue à partir de la forme bilinéaire φ((x1,y1,z1),(x2,y2,z2)) = x1x2 + y1y2 + z1z2, expression qui fait effectivement intervenir un polynôme de degré 2.

Certaines propriétés éventuellement vérifiées par les formes bilinéaires, comme par exemple la symétrie, les rendent le cas échéant plus faciles à étudier. La distance euclidienne par exemple est symétrique, ainsi la distance d'un point a à un point b est la même que la distance d'un point b à un point a. Un endomorphisme qui représente une forme bilinéaire symétrique est dit autoadjoint.

Ces endomorphismes autoadjoints disposent en fait de propriétés fortes concernant valeurs et vecteurs propres: non seulement ils admettent des vecteurs propres, mais de plus ceux-ci suffisent pour comprendre entièrement l'endomorphisme ; un endomorphisme auto-adjoint est diagonalisable. Ensuite, les vecteurs propres peuvent être choisis avec une propriété forte : il existe une base orthonormale de vecteurs propres. Enfin, pour ce cas particulier, il existe des méthodes de calcul simples et rapides pour obtenir valeurs et vecteurs propres. Cette situation est illustrée graphiquement sur la figure 5. Un endomorphisme autoadjoint transforme la boule unité (En topologie, une boule est un sous-ensemble particulier d'un espace métrique. Le nom évoque, à juste titre, un objet familier dans et plus généralement dans muni de la distance euclidienne usuelle. Cependant, les boules peuvent avoir des...) en un ellipsoïde dont les axes sont les vecteurs propres et les longueurs des demi-axes les valeurs absolues des valeurs propres.

Par ailleurs, la forme bilinéaire initiale décrit ici l'équivalent d'une distance d'un espace géométrique ; l'espace étudié, muni de la forme bilinéaire, est un nouvel espace géométrique. Sylvester montre que les vecteurs et valeurs propres, de l'endomorphisme auto-adjoint associé, sont des invariants, des êtres qui décrivent les grandeurs naturelles et caractéristiques de la géométrie considérée. La signification physique de ces grandeurs dépend du contexte de l'espace étudié. Sylvester a appliqué ce qui précède au principe d'inertie d'un solide indéformable en mécanique et en avait déduit l'existence d'axes de rotation (vecteurs propres) et de constantes d'inertie (valeurs propres) intrinsèques au solide. Les autres exemples d'applications montre qu'il en est de même dans d'autres situations, par exemple en statistique (Une statistique est, au premier abord, un nombre calculé à propos d'un échantillon. D'une façon générale, c'est le résultat de l'application d'une méthode statistique à un ensemble de données....) où les composantes principales révèlent la dimension la plus significative d'un songage, ou la relativité qui montre l'existence d'un invariant, la signature de Sylvester, dans la structure même de la géométrie de notre univers.

Le rôle des vecteurs et valeurs propres est ainsi modifié. Ils ne sont plus des uniquement des outils de calculs nécessaires pour accélérer un algorithme ou pour résoudre un problème technique de résolution d'équation différentielle, ils acquièrent une autonomie propre, et deviennent des invariants constitutifs d'une géométrie. Ils prennent alors des noms spécifiques au domaine d'application ; on parle par exemple d'axe de rotation en mécanique, de composantes principales en statistiques, ou de directions propres dans le cas d'espaces courbes.

La démonstration de l'existence d'une base de vecteurs propres dans le cas des endomorphismes autoadjoints est donnée dans l'article Diagonalisation.

Théorie Spectrale

Positionnement (On peut définir le positionnement comme un choix stratégique qui cherche à donner à une offre (produit, marque ou enseigne) une position crédible, différente et attractive au sein...) du problème

L'analyse du cas de la dimension finie montre qu'une connaissance des valeurs propres et des espaces de Jordan associés permet une compréhension profonde des endomorphismes. Il est donc naturel d'essayer d'étendre cette approche aux cas d'espaces vectoriels de dimensions non finies.

Ce besoin (Les besoins se situent au niveau de l'interaction entre l'individu et l'environnement. Il est souvent fait un classement des besoins humains en trois grandes...) de généralisation (La généralisation est un procédé qui consiste à abstraire un ensemble de concepts ou d'objets en négligeant les détails de façon à ce qu'ils puissent être considérés...) apparaît naturellement en mathématiques. Les espaces deviennent des espaces de fonctions et les endomorphismes les opérateurs de différentiations, comme les dérivées les gradients ou les laplaciens. L'exemple de la corde vibrante est caractéristique d'une approche de cette nature. Dans ce contexte le vocabulaire évolue, on ne parle plus d'endomorphisme mais d'opérateur, on utilise le terme de fonction propre pour désigner un vecteur propre et une telle démarche prend le nom de théorie spectrale. Elle est une branche de ce qui s'appelle l'analyse fonctionnelle.

L'approche spectrale est séduisante à bien des aspects. Analyser non plus les propriétés analytiques des éventuelles solutions, mais la nature même de l'espace géométrique est une approche élégante. Elle offre de nouveaux outils, comme des bases ou des distances pour résoudre des difficultés souvent complexes. Dans le cas de la dimension finie, cette approche apporte des théorèmes puissants, à la fois théoriques et algorithmiques. Joseph Fourier, montre qu'il en est parfois de même dans des cas plus généraux, avec l'étude de l'équation de la chaleur ou des cordes vibrantes. David Hilbert confirme la pertinence de la démarche en ouvrant la voie à une théorie spectrale générale.

Difficultés de l'approche

Les propriétés géométriques des espaces fonctionnels sont hélas largement plus faibles que le cas de dimension finie. La première différence est la présence d'une base au sens algébrique du terme. En général, il n'est pas possible de construire une famille libre et génératrice de l'espace par combinaison linéaire finie. Il existe des contre-exemples comme l'espace vectoriel des polynômes. Mais cet espace est trop étroit pour contenir beaucoup de solutions des équations que l'on cherche à résoudre. Par exemple, la position initiale d'une corde de guitare pincée par le musicien a fort peu de chance d'être dans l'univers des polynômes trigonométriques.

On peut alors généraliser ce type d'espace par une bonne complétude. On trouvera alors l'espace des séries trigonométriques ou celui des séries entières. Les résultats sont alors de bons candidats pour établir les fondements d'une théorie spectrale. Pour comprendre la géométrie de tels espaces, la topologie devient essentielle. En effet, par construction de l'espace, les solutions apparaissent comme limites de suites. Cependant la topologie cache bien des surprises pour les espaces fonctionnels.

En dimension finie, toutes les normes définissent la même topologie. En fait, il n'existe véritablement qu'une topologie intéressante pour une analyse en vecteurs propres. En dimension infinie, ce n'est plus le cas, la topologie faible par exemple ne possède même plus de distance associée, et parler de complétude n'est plus possible.

La compacité est toujours vraie en dimension finie pour les fermés bornés. Le théorème de Riesz (Au sein de la théorie des espaces vectoriels normés, le théorème de Riesz établit un lien entre la notion de compacité et celle de dimension.) nous indique que ce n'est jamais le cas si la dimension n'est pas finie. Il devient illusoire de vouloir extraire des sous-suites convergentes pour trouver des vecteurs propres dans le cas général.

Un endomorphisme est toujours continu en dimension finie. Ce n'est plus le cas pour les opérateurs linéaires des espaces fonctionnels. La dérivée (La dérivée d'une fonction est le moyen de déterminer combien cette fonction varie quand la quantité dont elle dépend, son argument, change. Plus précisément, une dérivée est une expression (numérique ou...), par exemple, ne possède pas cette propriété. Pour s'en assurer, il suffit de considérer la suite des monômes (x^n)\;. Sur l'intervalle [0,1], elle est bornée. Or l'image de la suite par la fonction dérivée ne possède plus cette propriété. Dans le cas général, un opérateur linéaire est continu si et seulement si l'image de la boule unité est bornée, c'est la raison pour laquelle on parle plus souvent d'opérateur borné et que d'opérateur linéaire continu.

Spectre et ensemble de valeurs propres

En dimension finie, si un endomorphisme a est surjectif alors il est bijectif. Ainsi, l'application a - λI est une bijection (Une fonction f: X → Y est dite bijective ou est une bijection si pour tout y dans l’ensemble d'arrivée Y il existe un et un seul x dans l’ensemble de définition X tel que f(x) = y. On dit encore...) si et seulement si λ n'est pas une valeur propre. Ce n'est pas vrai dans le cas général. Considérons par exemple E l'espace des fonctions infiniment dérivables sur l'intervalle [0,1], et considérons l'opérateur A (Amofrãn,cf plus bas ), qui, à la fonction f(x), associe la fonction xf(x). Il est relativement simple de constater qu'il est borné et ne possède pas de valeur propre. Considérons l'opérateur A - λI qui, à la fonction f(x), associe la fonction f(x)(x-λ). Si λ est compris entre 0 et 1, alors il n'est pas surjectif car son image ne contient pas de fonctions dont l'image de λ est différente de 0. On parle alors de spectre pour rendre compte de ce phénomène. Le spectre contient toujours l'ensemble des valeurs propres, et en dimension finie, ces deux notions coïncident. Dans notre exemple le spectre est l'intervalle [0,1] et l'ensemble des valeurs propres est vide (Le vide est ordinairement défini comme l'absence de matière dans une zone spatiale.).

La définition précise du spectre est la suivante: Soit E un espace de Banach (Un espace de Banach est un espace vectoriel normé complet pour la distance issue de sa norme. Comme la topologie déduite de sa distance est compatible avec sa structure d’espace vectoriel, c’est un espace vectoriel topologique. Les...) et O un opérateur linéaire, alors le spectre est l'ensemble des scalaires λ tel que l'opérateur O - λI n'admet pas de réciproque (La réciproque est une relation d'implication.). Selon le contexte, il est possible d'ajouter la continuité (En mathématiques, la continuité est une propriété topologique d'une fonction. En première approche, une fonction est continue si, à des variations infinitésimales de...) de l'inverse (En mathématiques, l'inverse d'un élément x d'un ensemble muni d'une loi de composition interne · notée multiplicativement, est un élément y tel que x·y...) comme condition.

Cas de la dimension quelconque: Un espace vectoriel E sur K est dit K_variant si l'on peut trouver un endomorphisme (alors appelé K_variant pour E) ne laissant stable aucun sous espace fini et ne possédant, a fortiori, aucun vecteur propre. Un tel espace est aussi communément appelé Espace de Baire-Amofrãn.

Remarque : Un espace qui n'est pas K_variant est dit K_invariant . Tout espace de dimension finie sur un corps algèbriquement clos est K_invariant (le polynôme caractéristique est scindé sur K!). R[X] en revanche est rendu (Le rendu est un processus informatique calculant l'image 2D (équivalent d'une photographie) d'une scène créée dans un logiciel de...) K_variant par l'endomorphisme canonique d'Amofrãn P->X*P .

On appelle famille de K_variance ou famille de Brenef une famille libre d'endomorphismes K_variant pour E. Le théorème de Baire-Brenef énonce alors que E est complet si la boule fermée pour la topologie induite sur l'espace de variance ( En statistique et en probabilité, variance En thermodynamique, variance ) (engendré par une famille de Brenef) est compacte. En effet, le Lemme de Chabran nous assure que l'espace de variance est de dimension dénombrable, et ce quel que soit le corps.

Un espace K_invariant est dit totalement invariant sur K si le spectre de tout endomorphisme K_invariant pour E est un convexe (En géométrie, un objet est convexe si pour toute paire de points { A , B } de cet objet, le segment [AB] qui les joint est entièrement contenu dans l'objet. Par exemple, un cube plein, un disque ou une boule sont convexes,...) fermé de K.

Décomposition spectrale des opérateurs autoadjoints compacts

En dimension finie, le paragraphe sur l'algèbre bilinéaire montre qu'il existe un cas ou il est possible de trouver une base de vecteurs propres sans utiliser les polynômes d'endomorphismes. C'est un bon cadre pour une généralisation car la notion de polynôme s'applique mal dans le cas des espaces fonctionnels. L'espace est alors enrichi d'une distance, euclidienne ou hermitienne et l'endomorphisme possède toujours la bonne symétrie que l'on appelle autoadjointe. Dans ce contexte, la boule unité est transformée en un ellipsoïde représenté dans la figure 5. Les axes principaux de cet ellipsoïde sont les vecteurs propres et les longueurs de ces demi-axes sont les valeurs propres. Cette approche géométrique guide David Hilbert pour établir un résultat important de théorie spectrale, dans le cas de la dimension infinie.

L'espace vectoriel possède une distance euclidienne ou hermitienne. Dans le cas général, il est nécessaire d'ajouter la complétude et la séparation (D'une manière générale, le mot séparation désigne une action consistant à séparer quelque chose ou son résultat. Plus particulièrement il est employé dans plusieurs domaines :). Un tel espace s'appelle un Hilbert séparable. Les séries trigonométriques ou les fonctions définies sur un segment dont le carré est intégrable correspondent à ce type d'espace. C'est aussi le cadre utilisé dans ce paragraphe.

L'opérateur possède une bonne symétrie. Elle reste la même que celle de la dimension finie, Il est ici autoadjoint.

Enfin l'opérateur dispose d'une bonne propriété de continuité. Le fait qu'il soit borné ne suffit plus. Il est compact, cela signifie que l'image de la boule unité est compacte. Une des conséquences est qu'il n'est plus inversible.

Dans ce contexte, alors des résultats analogues à la dimension finie sont établis. Citons par exemple:

  • Dans un Hilbert, un opérateur autoadjoint compact possède un spectre compact contenant toujours la valeur 0.
  • Dans un Hilbert, le seul opérateur autoadjoint compact ayant pour spectre {0} est l'opérateur nul.
  • Soit un opérateur autoadjoint compact dans un Hilbert séparable. Alors il existe une base hilbertienne de vecteurs propres pour l'opérateur.

Application à la chimie quantique (La chimie quantique est l'application de la mécanique quantique aux problèmes de la chimie.)

Article détaillé : Équation de Schrödinger

Fig. 7. Orbites stables d'un électron de l'atome d'hydrogène.
Fig. 7. Orbites stables d'un électron (L'électron est une particule élémentaire de la famille des leptons, et possèdant une charge électrique élémentaire de signe négatif. C'est un des composants de l'atome.) de l'atome (Un atome (du grec ατομος, atomos, « que l'on ne peut diviser ») est la plus petite partie d'un corps simple pouvant se combiner...) d'hydrogène (L'hydrogène est un élément chimique de symbole H et de numéro atomique 1.).

La théorie spectrale constitue la base mathématique de la mécanique quantique. Les vecteurs propres trouvent donc d'innombrables applications dans ce domaine. Par exemple en chimie (La chimie est une science de la nature divisée en plusieurs spécialités, à l'instar de la physique et de la biologie avec lesquelles elle partage des espaces d'investigations communs ou...), l'étude de l'atome (Un atome (grec ancien ἄτομος [atomos], « que l'on ne peut diviser ») est la plus petite partie d'un corps simple pouvant se combiner chimiquement avec une autre. La théorie...) d'hydrogène montre que les états stables des électrons sont modélisés par des vecteurs propres dont les valeurs propres correspondent à des états d'énergie.

Dans le contexte de la mécanique quantique, l'unique solution pour décrire la position d'un électron, dans notre exemple celui de l'hydrogène, est l'utilisation d'une fonction d'onde complexe. Le carré du module de cette fonction d'onde peut alors s'interpréter comme la probabilité (La probabilité (du latin probabilitas) est une évaluation du caractère probable d'un évènement. En mathématiques, l'étude des...) de présence de l'électron en un point donné de l'espace. L'espace des fonctions d'ondes est un Hilbert séparable, celui des fonctions de notre espace géométrique dans les complexes dont le carré du module est intégrable.

L'équation qui régit cette fonction d'onde (que l'on note ici ΨE) est une version simplifiée de l'équation de Schrödinger :

H\Psi_E = E\Psi_E\;

H est un opérateur linéaire appelé hamiltonien. C'est un opérateur différentiel d'ordre 2. Il correspond à une transformation de Legendre d'un lagrangien (Le lagrangien d'un système dynamique, dont le nom vient de Joseph Louis Lagrange, est une fonction des variables dynamiques qui décrit de manière concise les...). On peut démontrer qu'un tel opérateur est autoadjoint.

E est un scalaire, qui représente le niveau d'énergie de l'électron.

ΨE est l'inconnue de l'équation. C'est donc par définition une fonction propre, elle correspond alors à ce que les chimistes appellent une orbite (En mécanique céleste, une orbite est la trajectoire que dessine dans l'espace un corps autour d'un autre corps sous l'effet de la gravitation.) stable. Les électrons ne peuvent que sauter d'une orbite stable à une.

L'équation d'onde qui régit l'électron correspond donc au cadre de la théorie spectrale. Les solutions sont les fonctions propres d'un opérateur linéaire. La géométrie correspond à un contexte favorable, l'espace est un Hilbert séparable et l'opérateur est autoadjoint. On peut par exemple en déduire directement que l'énergie est toujours un réel. En revanche les propriétés de continuité ne sont pas favorables. Par exemple, l'opérateur n'est pas compact. Cette absence de bonne continuité rend la recherche d'orbites stables difficile.

Le cas de l'atome d'hydrogène est un peu particulier. L'opérateur associé correspond à un cas relativement simple. On peut alors approximer aussi précisément qu'on le souhaite les fonctions propres. La figure 7 représente les premières orbites stables de l'atome d'hydrogène. La couleur (La couleur est la perception subjective qu'a l'œil d'une ou plusieurs fréquences d'ondes lumineuses, avec une (ou des) amplitude(s) donnée(s).) représente le carré du module de l'orbite, plus elle est claire, plus la densité (La densité ou densité relative d'un corps est le rapport de sa masse volumique à la masse volumique d'un corps pris comme référence. Le corps de...) est forte. Le centre représente le noyau, ici un proton (Le proton est une particule subatomique portant une charge électrique élémentaire positive.).

Cette approche ne se limite pas à l'atome d'hydrogène, on peut l'utiliser pour d'autres atomes et même des molécules. C'est le travail qu'a réalisé Linus Pauling dans son livre The Nature of the Chemical Bond sur la nature des liaisons chimiques. Le prix Nobel de Chimie (Le prix Nobel de chimie est décerné une fois l'an, depuis 1901, par l'Académie royale des sciences de Suède à un scientifique dont...), obtenu principalement grâce à cette approche est l'un des plus important dans la chimie du XXe siècle. La combinaison linéaire des orbites stables permet par exemple, dans le cas des molécules, de mieux décrire des composés insaturés de l'éthylène.

Valeur propre et recherche mathématique

Les valeurs propres restent un vaste sujet de recherche dans les mathématiques d'aujourd'hui. Ce sujet couvre aussi bien la recherche fondamentale (La recherche fondamentale regroupe les travaux de recherche scientifique n'ayant pas de finalité économique déterminée au moment des travaux. On oppose en général la recherche fondamentale à la...) qu'appliquée et la dimension finie comme le cas général en dimension infinie.

Recherche fondamentale (En musique, le mot fondamentale peut renvoyer à plusieurs sens.) et dimension finie

Si dans le cas des corps relativement connus comme les nombres réels ou complexes, la problématique des valeurs propres est maintenant largement connue, il n'en est pas de même pour les corps plus ésotériques ou les anneaux. Dans le cas des corps finis, cette approche offre un regard particulier par exemple sur la cryptologie. D'autres corps comme les p-adiques sont encore largement mal connus. Une approche linéaire, avec l'analyse des valeurs propres représente un outil supplémentaire pour l'analyse par exemple de l'anneau des polynômes.

Recherche appliquée et dimension finie

L'analyse des valeurs propres et des vecteurs propres représente la meilleure méthode pour la mise au point d'algorithmique (L'algorithmique est l’ensemble des règles et des techniques qui sont impliquées dans la définition et la conception d'algorithmes, c'est à dire de processus systématiques de résolution,...) rapide de résolution d'équations linéaires. Des critères comme la vitesse de convergence (Le terme de convergence est utilisé dans de nombreux domaines :) devient alors le premier sujet de recherche. Une technique particulièrement employée consiste à éloigner les valeurs propres pour accélérer la recherche des solutions. Ce secteur, même s'il n'est pas dominé par des mathématiciens au sens théorique du terme, puisqu'il est plus souvent le domaine des mathématiques de l'ingénieur ou de l'informaticien (On nommait dans les années 1960-1980 informaticien ou informaticienne une personne exerçant un métier dans l'informatique. La variété et le peu de rapport des...), est toujours en pleine effervescence. Il rejoint les travaux sur l'anneau des nombres di-adiques (représentation binaire finie) et s'ouvre sur une branche des mathématiques difficile. La cryptologie appliquée utilise aussi les représentations linéaires pour offrir des codes multi-clé efficaces et souples. Ici, les corps sont rarement les réels ou les complexes, mais plutôt des corps finis.

Recherche théorique dans le cas général

Ce domaine est celui qui rassemble le plus de mathématiciens théoriques. L'algèbre linéaire est un problème encore largement ouvert dans le cas de la dimension infinie. La voie théorique la plus analysée à l'heure (L’heure est une unité de mesure du temps. Le mot désigne aussi la grandeur elle-même, l'instant (l'« heure qu'il est »), y compris en sciences...) actuelle est celle de l'axiomatisation, qui s'incarne dans la géométrie algèbrique. Cette approche considère les opérateurs comme éléments d'une algèbre abstraite (L'algèbre abstraite, ou algèbre générale, ou encore algèbre universelle est la branche des mathématiques qui porte principalement sur l'étude des structures...), bénéficiant d'un certains nombres de propriétés. L'objectif est la compréhension de cette algèbre pour l'appliquer ensuite à des cas particuliers d'algèbre d'opérateurs. Cette approche est particulièrement féconde en mathématiques appliquées à la physique, comme par exemple les travaux du mathématicien russe Maxim Kontsevich (Maxim Kontsevich (en russe ?????? ????????)[1] est un mathématicien russe, né le 25 août 1964 à Khimki (ancienne URSS).) (Médaille Fields 1998), dont les résultats les plus célèbres traitent des déformations quantiques sur les Variétés de Poisson à l'aide d'une hiérarchie infinie de structures algèbriques généralisant la notion d'algèbre opérant sur un espace vectoriel.

La géométrie algèbrique est particulièrement féconde dans le domaine de l'arithmétique (L'arithmétique est une branche des mathématiques qui comprend la partie de la théorie des nombres qui utilise des méthodes de la géométrie algébrique et de la...). Le mathématicien Laurent Lafforgue a reçu la Médaille Fields (La médaille Fields est la plus prestigieuse récompense pour la reconnaissance de travaux en mathématiques, souvent comparée au Prix Nobel. Son...) en 2002 pour ses travaux dans cette branche sur les conjectures de Langlands.

Sources

Page générée en 0.858 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique