Matrice inversible - Définition et Explications

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

En mathématiques et plus particulièrement en algèbre linéaire, une matrice carrée A d'ordre n est dite inversible ou régulière ou encore non singulière, s'il existe une matrice B d'ordre n telle que

AB = BA = In, ( AB = In suffit d'après le théoreme du rang ( Mathématiques En algèbre linéaire, le rang d'une famille de vecteurs est la dimension du sous-espace vectoriel engendré par cette famille. Le théorème du rang lie le rang...) )

In désigne la matrice unité d'ordre n. La multiplication (La multiplication est l'une des quatre opérations de l'arithmétique élémentaire avec l'addition, la soustraction et la division .) est la multiplication ordinaire des matrices. Dans ce cas, la matrice B est unique et est appelée la matrice inverse de A, et est notée A−1.

Une matrice carrée qui n'est pas inversible est dite non inversible ou singulière. Tandis que dans les cas usuels, ces matrices sont à coefficients réels ou complexes, toutes ces définitions peuvent être données (Dans les technologies de l'information (TI), une donnée est une description élémentaire, souvent codée, d'une chose, d'une transaction d'affaire, d'un événement, etc.) pour des matrices à coefficients dans un corps (et plus généralement dans un anneau) quelconque.

Ou plus simplement: Toute matrice carrée A est régulière si son déterminant est non nul et singulière si son déterminant est nul.

Propriétés fondamentales

Soit A une matrice carrée d'ordre n à coefficients dans un corps \mathbb{K} (par exemple le corps des réels \mathbb{R}). Les propositions suivantes sont équivalentes (on note X une matrice colonne à n éléments dans \mathbb{K}) :

  • A est inversible,
  • A est équivalente à la matrice unité In d'ordre n,
  • A possède n pivots,
  • le déterminant de A est non nul : det (A) ≠ 0,
  • 0 n'est pas valeur propre (En mathématiques, le concept de vecteur propre est une notion algébrique s'appliquant à une application linéaire d'un espace dans lui-même. Il correspond à l'étude des axes...) de A,
  • le rang de A est égal à n,
  • le système homogène AX = 0 a pour unique solution X = 0,
  • pour tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) b dans \mathcal{M}_{n1}(\mathbb{K}), le système linéaire AX = b a au plus une solution,
  • pour tout b dans \mathcal{M}_{n1}(\mathbb{K}), le système linéaire AX = b a au moins une solution,
  • pour tout b dans \mathcal{M}_{n1}(\mathbb{K}), le système linéaire AX = b a exactement une solution,
  • les colonnes de A, considérées comme des vecteurs de \mathbb{K}^n, sont linéairement indépendantes,
  • les colonnes de A, considérées comme des vecteurs de \mathbb{K}^n, engendrent \mathbb{K}^n,
  • les colonnes de A, considérées comme des vecteurs de \mathbb{K}^n, forment une base de \mathbb{K}^n,
  • l'endomorphisme canoniquement associé à A (c’est-à-dire l'application linéaire (En mathématiques, une application linéaire (aussi appelée opérateur linéaire ou transformation linéaire) est une application entre deux espaces vectoriels qui respecte l’addition des vecteurs et la multiplication...) de \mathbb{K}^n dans lui-même, notée can(A), qui a pour matrice A en base canonique) est injectif,
  • l'endomorphisme can(A) canoniquement associé à A est surjectif,
  • l'endomorphisme can(A) canoniquement associé à A est bijectif,
  • la matrice A est inversible à gauche, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que BA = In,
  • la matrice A est inversible à droite, c'est-à-dire qu'il existe une matrice B carrée d'ordre n telle que AB = In,
  • la transposée tA de A est inversible,
  • il existe un polynôme (En mathématiques, un polynôme est la combinaison linéaire des puissances d'une variable, habituellement notée X. Ces objets sont largement utilisés en pratique, ne serait-ce que parce qu'ils donnent localement une valeur approchée de toute...) annulateur de A dont 0 n'est pas racine,
  • 0 n'est pas racine du polynôme minimal (Le polynôme minimal est un outil qui permet d'utiliser des résultats de la théorie des polynômes à l'algèbre linéaire. Il est en effet possible d'appliquer un polynôme à un...) de A.

Plus généralement, une matrice carrée à coefficients dans un anneau commutatif unifère est inversible si et seulement si son déterminant est inversible dans cet anneau.

Méthodes d'inversion

Avant de décrire les méthodes usuelles d'inversion, notons qu'en pratique, il n'est pas nécessaire de calculer l'inverse d'une matrice pour résoudre un système d'équations linéaires. Il est toutefois nécessaire que la matrice considérée soit inversible. Des méthodes de décomposition (En biologie, la décomposition est le processus par lequel des corps organisés, qu'ils soient d'origine animale ou végétale dès l'instant qu'ils sont privés de vie, dégénèrent...) comme la décomposition LU (En algèbre linéaire, la décomposition LU est une méthode de décomposition d'une matrice en une matrice triangulaire inférieure L (comme "Low", bas) et une matrice triangulaire supérieure U (comme...) sont beaucoup plus rapides que l'inversion.

Élimination de Gauss-Jordan (En mathématiques, l'élimination de Gauss-Jordan, aussi appelée pivot de Gauss, nommée en hommage à Carl Friedrich Gauss et Wilhelm Jordan, est un algorithme de l'algèbre...)

Méthode des cofacteurs

L'inverse d'une matrice A s'écrit sous une forme très simple à l'aide de la matrice complémentaire tcomA

A^{-1}=\frac1{\det A} \, {}^t{{\rm com} A} = \frac1{\det A} \, {}^t{\left(C_{ij}\right)} = \frac1{\det A} \, \begin{pmatrix} C_{11} & C_{21} & \cdots & C_{n1} \\ C_{12} & \ddots &        & C_{n2} \\ \vdots &        & \ddots & \vdots \\ C_{1n} & \cdots & \cdots & C_{nn} \\ \end{pmatrix}

detA est le déterminant de A, comA est la comatrice (En algèbre linéaire, la comatrice d'une matrice carrée A est une matrice introduite par une généralisation du calcul de l'inverse de A. Elle a une...) de A et tCij est la matrice transposée de la comatrice.

Cette écriture permet un calcul aisé de l'inverse d'une matrice de petite dimension (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son épaisseur, ou bien son diamètre si c'est une pièce de révolution.). Pour des matrices de plus grande dimensions, cette méthode essentiellement récursive devient inefficace.

Inversion des matrices 2 x 2

L'équation des cofacteurs ci-dessus permet de calculer l'inverse des matrices de dimensions 2 x 2 : si  ad - bc \neq 0,

 A = \begin{pmatrix} a & b \\ c & d \\ \end{pmatrix} ,     \        {\rm com} A = \begin{pmatrix} d & -c \\ -b & a \\ \end{pmatrix} ,     \        {}^t{{\rm com} A} = \begin{pmatrix} d & -b \\ -c & a \\ \end{pmatrix}
 A^{-1} = \begin{pmatrix} a & b \\ c & d \\ \end{pmatrix}^{-1} = \frac1{ad - bc} \begin{pmatrix} d & -b \\ -c & a \\ \end{pmatrix}


EXEMPLE

 C = \begin{pmatrix} 1 & 2 \\ 3 & 4 \\ \end{pmatrix} ,     \       C^{-1} = \begin{pmatrix} 1 & 2 \\ 3 & 4 \\ \end{pmatrix}^{-1} = \frac1{-2} \begin{pmatrix} 4 & -2 \\ -3 & 1 \\ \end{pmatrix}

Inversion des matrices 3 x 3

De même, l'inverse d'une matrice de dimensions 3 x 3 s'écrit :

\det A = a(ei-fh) - b(di-fg) + c(dh-eg) = a(ei-fh) - d(bi-ch) + g(bf-ce) = ... \
A^{-1} = \begin{pmatrix} a & b & c\\ d & e & f \\ g & h & i \\ \end{pmatrix}^{-1} = {\frac1{\det A}}^{\ t}\! \begin{pmatrix} ei - fh & fg - di & dh - eg \\ ch - bi & ai - cg & bg - ah \\ bf - ce & cd - af & ae - bd \end{pmatrix} =   \frac1{\det A} \begin{pmatrix} ei - fh & ch - bi & bf - ce\\ fg - di & ai - cg &  cd - af\\ dh - eg  & bg - ah  & ae - bd \end{pmatrix}

Inversion par bloc

L'inverse d'une matrice peut également être calculé par bloc, en utilisant la formule analytique suivante:

\begin{pmatrix} A & B \\ C & D \end{pmatrix}^{-1} = \begin{pmatrix} A^{-1}+A^{-1}B(D-CA^{-1}B)^{-1}CA^{-1} & -A^{-1}B(D-CA^{-1}B)^{-1} \\ -(D-CA^{-1}B)^{-1}CA^{-1} & (D-CA^{-1}B)^{-1} \end{pmatrix}

où A, B, C et D sont des blocs de taille arbitraire. Cette méthode peut se révéler avantageuse, par exemple, si A est diagonale (On appelle diagonale d'un polygone tout segment reliant deux sommets non consécutifs (non reliés par un côté). Un polygone à n côtés possède diagonales.) et si son complément de Schur (DCA − 1B) est une matrice de petite dimension (Dans le sens commun, la notion de dimension renvoie à la taille ; les dimensions d'une pièce sont sa longueur, sa largeur et sa profondeur/son...), puisque ce sont les seules matrices à inverser.

Cette technique a été inventée par Volker Strassen, connu également pour l'algorithme de Strassen sur le produit matriciel (Le produit matriciel désigne le produit de matrices, initialement appelé la « composition des tableaux »[1]. Cet article montre comment...) rapide.

Page générée en 0.142 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique