Théorème de Cayley-Hamilton - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

En algèbre linéaire, le théorème de Cayley-Hamilton (qui porte les noms des mathématiciens Arthur Cayley et William Hamilton) affirme que tout endomorphisme d'un espace vectoriel de dimension finie sur un corps quelconque annule son propre polynôme caractéristique.

En termes de matrice, cela signifie que :

si A est une matrice carrée d'ordre n et si

p(X)= \det(XI-A) = X^n + p_{n-1}X^{n-1} + \ldots + p_1 X + p_0

est son polynôme caractéristique (polynôme d'indéterminée X), alors en remplaçant formellement X par la matrice A dans le polynôme, le résultat est la matrice nulle :

p(A)= A^n + p_{n-1}A^{n-1} + \ldots + p_1 A + p_0 I_n = 0_n.\;

Le théorème de Cayley-Hamilton s'applique aussi à des matrices carrées à coefficients dans un anneau commutatif quelconque.

Un corollaire important du théorème de Cayley-Hamilton affirme que le polynôme minimal d'une matrice donnée est un diviseur de son polynôme caractéristique.

Motivation

Ce théorème possède deux familles d'utilisation :

  • Il permet d'établir des résultats théoriques, par exemple pour calculer le polynôme caractéristique d'un endomorphisme nilpotent.
  • Il autorise aussi des simplifications puissantes dans les calculs de matrices. L'approche par les polynômes minimaux est en général moins coûteuse que celle par les déterminants.

On trouve ce théorème utilisé dans les articles sur les polynômes d'endomorphisme, endomorphismes nilpotents, et plus généralement dans la théorie générale des matrices

Démonstration

Une preuve

Quelle que soit la matrice S \in \mathcal{M}_n(\mathbb{K}), il existe une matrice explicitement déterminée, Comp(S), la matrice complémentaire de S, qui vérifie SComp(S) = Comp(S)S = detSIn. La matrice Comp(S) est la transposée de la comatrice ou matrice des cofacteurs de S. Cette relation reste encore vraie si les coefficients de S appartiennent à un anneau, puisqu'on n'a pas fait de divisions. On peut donc poser S = XInA, dont les coefficients sont dans \mathbb{K}[X] et on a alors la relation:

(XI_n-A)\textrm{Comp}(XI_n-A)=\det(XI_n-A)I_n=p(X)I_n. \ \ (1)

Partons de (1), en écrivant

\textrm{Comp}(XI_n-A)=\sum_{j=0}^{n-1}B_j X^j

avec B_j\in\mathcal{M}_n(\mathbb{K}), et

p(X)=\sum_{j=0}^n p_jX^j.

On peut développer le produit (XInA)Comp(XInA) :

(XI_n-A)\textrm{Comp}(XI_n-A)=X^{n}B_{n-1} +\sum_{i=1}^{n-1}X^i(B_{i-1}-AB_{i}) -AB_0\ \ (2),

qui est identique à

\sum_{j=0}^n X^jp_jI_n.\ \ (3)

Les polynomes (2) et (3) sont égaux. Par conséquent,

p_{n}I_n=B_{n-1},\quad p_iI_n=B_{i-1}-AB_{i},\quad p_0=-AB_0.

Il vient alors un télescopage :

\begin{align}P(A)&=\sum_{j=0}^n A^j(p_jI_n)\\&=A^nB_{n-1}+\sum_{i=1}^{n-1}A^i(B_{i-1}-AB_{i}) -AB_0\\&=\sum_{i=1}^nA^iB_{i-1}-\sum_{i=0}^{n-1}A^{i+1}B_i\\&=0\end{align},

La preuve ne consiste pas en une substitution de X par A dans des égalités de polynômes, mais à une identification de leurs coefficients.

Une variante

On peut également aligner des idées abstraites.

Commençons par introduire un morphisme d'évaluation approprié à la résolution du problème. Tout d'abord, \mathbb{K}[A] étant une algèbre commutative sur \mathbb{K}, on a un morphisme d'évaluation : \mathbb{K}[X] \to \mathbb{K}[A] (qui envoie X sur A et λ sur λIn pour tout scalaire λ). Ce morphisme d'anneaux commutatifs induit un morphisme d'évaluation sur les anneaux de matrices \mathcal{M}_n(\mathbb{K}[X]) \to \mathcal{M}_n(\mathbb{K}[A]).

Une notation auxiliaire nous sera utile : pour deux matrices carrées (n,n) notées C = (cij) et D = (dij), on notera C \triangleright D la matrice à coefficients matriciels de terme général cijD. Si le lecteur connaît le produit de Kronecker de deux matrices, il pourra remarquer que C\triangleright D c'est presque la même chose que C\otimes D à ceci près que C\triangleright D est une matrice (n,n) dont les coefficients sont des matrices (n,n) tandis que C\otimes D est une matrice (n2,n2). Les formules ci-dessous ne contiennent de fait que deux cas particuliers de cette opération : des produits de la forme I_n \triangleright C c'est-à-dire des matrices carrées avec des C sur la diagonale et des 0 ailleurs et un produit A\triangleright I_n c'est-à-dire une variante de A où la matrice aijIn vient remplacer le coefficient aij.

Cette notation posée, appliquons le morphisme d'évaluation à la relation :

(XI_n-A)\,\textrm{Comp}(XI_n-A)=p(X)I_n.

On obtient une relation

(I_n\triangleright A-A\triangleright I_n)\,M=I_n\triangleright p(A)\qquad(*)

dans laquelle M est une certaine matrice à coefficients dans \mathbb{K}[A] dont on n'aura besoin de rien savoir.

Ainsi on a écrit une formule juste, et on en pâtit : on n'a du coup pas fini, l'évaluation de XInA par une technique rigoureuse ne fournit pas 0 mais une bizarre matrice à coefficients matriciels.

Il faut une deuxième idée pour conclure. Elle consiste à remarquer que si \mathbb{A} est un anneau et E un \mathbb A-module à droite, pour tous entiers r, s, t on peut définir par les formules habituelles un produit matriciel :

\mathcal{M}_{rs}(E)\times\mathcal{M}_{st}(\mathbb{A})\to\mathcal{M}_{rt}(E)

pour laquelle on a associativité si on veut calculer des produits à trois termes :

\mathcal{M}_{rs}(E)\times\mathcal{M}_{st}(\mathbb{A})\times\mathcal{M}_{tu}(\mathbb{A})\to\mathcal{M}_{ru}(E).

Appliquons cette notion à E=\mathbb{K}^n (pour les puristes à E=\mathcal{M}_{n1}(\mathbb{K})) qui est un module (dont la multiplication s'écrit spontanément à gauche mais peut l'être à droite si on préfère, l'anneau étant commutatif) sur l'anneau commutatif \mathbb{A}=\mathbb{K}(A), la multiplication externe étant l'application : \mathcal{M}_{n1}(\mathbb{K})\times\mathbb{K}(A) définie par (E,B)\mapsto BE (ce BE\, étant le produit matriciel ordinaire de la matrice carrée B\, par la matrice colonne E\,).

Multiplions à gauche la relation ( * ) par le vecteur ligne \begin{pmatrix}e_1&\cdots&e_n\end{pmatrix}(e_1,\ldots,e_n) désigne la base canonique de \mathbb{K}^n : en utilisant l'expression de droite dans ( * ) on obtient le vecteur ligne \begin{pmatrix}p(A)e_1&\ldots&p(A)e_n\end{pmatrix}.

Si maintenant on utilise l'expression de gauche dans ( * ) et qu'on déplace les parenthèses par associativité de la multiplication matricielle un peu inhabituelle décrite ci avant, on est amené à calculer le produit :

\begin{pmatrix}e_1&\ldots&e_n\end{pmatrix}(I_n\triangleright A-A\triangleright I_n).

Pour chaque indice j, on ne peut que constater que sa j-ème composante vaut :

Ae_j-\sum_{i=1}^n(a_{ij}I_n)e_i=Ae_j-\sum_{i=1}^na_{ij}e_i=0.

En multipliant ceci à droite par l'inoffensive matrice M et en comparant les deux expressions du produit, on conclut que pour tout indice j, p(A)ej = 0.

Et donc p(A) = 0.

Remarques additionnelles sur la démonstration

La preuve qui a été donnée évite la substitution de X par une matrice dans un contexte non commutatif, mais les manipulations effectuées sont quand même proches de cette idée : on a bien décomposé l'équation en composantes suivant les puissances de X, on a multiplié à gauche par Aj la composante qui était en facteur de Xj, et on a additionné tout ensemble. En fait, on a utilisé l'opération EvA définie en (5), sans supposer qu'il s'agisse d'un homomorphisme d'anneaux, de \mathcal{M}_n(\mathbb{K})[X] dans {M}_n(\mathbb{K}). L'opération EvA est une évaluation à gauche, parce que la multiplication par l'indéterminée scalaire X est remplacée par la multiplication à gauche par A.


Une autre observation est importante : la forme exacte du polynôme Comp(XInA) n'a aucune importance. Il y a donc quelque chose à exploiter ici, ce que n'ont pas manqué de faire les mathématiciens.

Soit M un anneau non commutatif ; on peut définir une division euclidienne d'un polynôme P\in M[X] par un polynôme B monique. C'est un polynôme dont le coefficient du terme de plus haut degré est une unité de M, c'est-à-dire un élément de M qui possède un inverse dans M. Plus précisément, il existe deux polynômes Q, R\in M[X], avec R de degré strictement inférieur au degré de B, tels que

P = BQ + R.

La démonstration est entièrement analogue à celle du cas scalaire. Si B = XInA, alors le reste R est de degré 0, et donc identique à une constante appartenant à M. Mais dans ce cas, en raisonnant exactement comme dans la démonstration du théorème de Cayley-Hamilton, on arrive à la conclusion

EvA(P) = R.

Il s'ensuit que EvA(P) est nul si et seulement si P est divisible à gauche par XInA.

La démonstration du théorème de Cayley-Hamilton donne aussi une autre information : le polynôme Comp(XInA) est le quotient à gauche de p(X)In par tInA. Comme p(X)In et XInA appartiennent tous deux au sous-anneau commutatif K[A][X], la division à gauche se passe entièrement dans ce sous-anneau, c'est donc une division ordinaire. En particulier, les coefficients matriciels de Comp(XInA) sont des combinaisons linéaires de puissances de A. En d'autres termes, la matrice complémentaire d'une matrice A est un polynôme en A, ce qu'il n'est pas facile de déduire directement de la définition d'une matrice complémentaire. Mieux, on peut calculer explicitement ses coefficients à partir de ceux du polynôme caractéristique p(X), puisqu'il s'agit de faire une division euclidienne ordinaire, et on trouve

\textrm{Comp(-A)}=\sum_{j=1}^n p_jA^{j-1}.

On aurait pu également obtenir cette relation directement à partir du théorème de Cayley-Hamilton, en vertu de l'identité

p_0I_n=\det(-A)I_n=-A\cdot \textrm{Comp}(-A)=\textrm{Comp}(-A)\cdot-A.
Page générée en 2.493 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise