Chaîne de Markov - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Exemple : Doudou le hamster

Doudou, le hamster paresseux, ne connaît que trois endroits dans sa cage : les copeaux où il dort, la mangeoire où il mange et la roue où il fait de l'exercice. Ses journées sont assez semblables les unes aux autres, et son activité se représente aisément par une chaîne de Markov. Toutes les minutes, il peut soit changer d'activité, soit continuer celle qu'il était en train de faire. L'appellation processus sans mémoire n'est pas du tout exagérée pour parler de Doudou.

  • Quand il dort, il a 9 chances sur 10 de ne pas se réveiller la minute suivante.
  • Quand il se réveille, il y a 1 chance sur 2 qu'il aille manger et 1 chance sur 2 qu'il parte faire de l'exercice.
  • Le repas ne dure qu'une minute, après il fait autre chose.
  • Après avoir mangé, il y a 3 chances sur 10 qu'il parte courir dans sa roue, mais surtout 7 chances sur 10 qu'il retourne dormir.
  • Courir est fatigant ; il y a 8 chances sur 10 qu'il retourne dormir au bout d'une minute. Sinon il continue en oubliant qu'il est déjà un peu fatigué.

Diagrammes

Les diagrammes peuvent montrer toutes les flèches, chacune représentant une probabilité de transition. Cependant, c'est plus lisible si :

  • on ne dessine pas les flèches de probabilité zéro (transition impossible) ;
  • on ne dessine pas les boucles (flèche d'un état vers lui-même). Cependant elles existent ; leur probabilité est sous-entendue car on sait que la somme des probabilités des flèches partant de chaque état doit être égale à 1.

Matrice de transition

La matrice de transition de ce système est la suivante (les lignes et les colonnes correspondent dans l'ordre aux états représentés sur le graphe par copeaux, mangeoire, roue) :

 P =\begin{bmatrix} 0,9 & 0,05 & 0,05 \\ 0,7 & 0 & 0,3 \\ 0,8 & 0 & 0,2 \\ \end{bmatrix}

Prévisions

Prenons l'hypothèse que Doudou dort lors de la première minute de l'étude.

  \mathbf{x}^{(0)} = \begin{bmatrix}         1 & 0 & 0     \end{bmatrix}

Au bout d'une minute, on peut prédire :

     \mathbf{x}^{(1)} = \mathbf{x}^{(0)} P  =  \begin{bmatrix}         1 & 0 & 0 \end{bmatrix} \begin{bmatrix} 0,9 & 0,05 & 0,05 \\ 0,7 & 0 & 0,3 \\ 0,8 & 0 & 0,2 \\ \end{bmatrix}  = \begin{bmatrix}         0,9 & 0,05 & 0,05   \end{bmatrix}

Ainsi, après une minute, on a 90 % de chances que Doudou dorme encore, 5 % qu'il mange et 5 % qu'il coure.

     \mathbf{x}^{(2)} = \mathbf{x}^{(1)} P  = \mathbf{x}^{(0)} P^2  =  \begin{bmatrix}         1 & 0 & 0 \end{bmatrix} \begin{bmatrix} 0,9 & 0,05 & 0,05 \\ 0,7 & 0 & 0,3 \\ 0,8 & 0 & 0,2 \\ \end{bmatrix}^2      = \begin{bmatrix}         0,885 & 0,045 & 0,07     \end{bmatrix}

Après 2 minutes, il y a 4,5 % de chances que le hamster mange.

De manière générale, pour n minutes :

     \mathbf{x}^{(n)} = \mathbf{x}^{(n-1)} P
     \mathbf{x}^{(n)} =  \mathbf{x}^{(0)} P^n

La théorie montre qu'au bout d'un certain temps, la loi de probabilité est indépendante de la loi initiale. Notons la q :

     \mathbf{q} = \lim_{n \to \infty} \mathbf{x}^{(n)}

On obtient la convergence si et seulement si la chaîne est apériodique et irréductible. C'est le cas dans notre exemple, on peut donc écrire :

 \begin{align}      P  & =   \begin{bmatrix}                 0,9 & 0,05 & 0,05 \\                 0,7 & 0 & 0,3 \\                 0,8 & 0 & 0,2 \\                 \end{bmatrix} \\          \mathbf{q} P   & =  \mathbf{q} \qquad \mbox{(} \mathbf{q} \mbox{ est la loi invariante par rapport a } P \mbox{.)} \\         & =  \mathbf{q} I \\         \mathbf{q} (I - P) & =  \mathbf{0} \\         & =  \mathbf{q} \left( \begin{bmatrix}             1 & 0 & 0 \\             0 & 1 & 0 \\             0 & 0 & 1 \\         \end{bmatrix}         - \begin{bmatrix}                 0,9 & 0,05 & 0,05 \\                 0,7 & 0 & 0,3 \\                 0,8 & 0 & 0,2 \\            \end{bmatrix} \right)  \\        & =   \mathbf{q} \begin{bmatrix}             0,1 & -0,05 & -0,05 \\             -0,7 & 1 & -0,3 \\             -0,8 & 0 & 0,8 \\         \end{bmatrix} \\ &= \begin{bmatrix} q_1 & q_2 & q_3 \end{bmatrix}\begin{bmatrix}             0,1 & -0,05 & -0,05 \\             -0,7 & 1 & -0,3 \\             -0,8 & 0 & 0,8 \\ \end{bmatrix} \\ &= \begin{bmatrix} 0 & 0 & 0 \end{bmatrix} \end{align}

Sachant que q1 + q2 + q3 = 1, on obtient :

\begin{bmatrix} q_1 & q_2 & q_3 \end{bmatrix}  = \begin{bmatrix} 0,884 & 0,0442 & 0,0718 \end{bmatrix}

Doudou passe 88,4 % de son temps à dormir !

Applications

  • Les systèmes Markoviens sont très présents en physique particulièrement en physique statistique. Plus généralement l'hypothèse markovienne est souvent invoquée lorsque des probabilités sont utilisées pour modéliser l'état d'un système, en supposant toutefois que l'état futur du système peut être déduit du passé avec un historique assez faible.
  • Le célèbre article de 1948 de Claude Shannon, A mathematical theory of communication, qui fonde la théorie de l'information, commence en introduisant la notion d'entropie à partir d'une modélisation Markovienne de la langue anglaise. Il montre ainsi le degré de prédictibilité de la langue anglaise, muni d'un simple modèle d'ordre 1. Bien que simples, de tels modèles permettent de bien représenter les propriétés statistiques des systèmes et de réaliser des prédictions efficaces sans décrire la structure complète des systèmes.
  • En compression, la modélisation markovienne permet la réalisation de techniques de codage entropique très efficaces, comme le codage arithmétique. De très nombreux algorithmes en reconnaissance des formes ou en intelligence artificielle comme par exemple l'algorithme de Viterbi, utilisé dans la grande majorité des systèmes de téléphonie mobile pour la correction d'erreurs, font l'hypothèse d'un processus markovien sous-jacent.
  • L'indice de popularité d'une page Web (PageRank) tel qu'il est utilisé par Google est défini par une chaîne de Markov. Il est défini par la probabilité d'être dans cette page à partir d'un état quelconque de la chaine de Markov représentant le Web. Si N est le nombre de pages Web connues, et une page i a ki liens, alors sa probabilité de transition vers une page liée (vers laquelle elle pointe) est p_i^l= \tfrac{1-q}{k_i}+\tfrac qN et p_i^{nl}=\tfrac qN pour toutes les autres (pages non liées). Notons qu'on a bien k_i p_i^l+(N-k_i) p_i^{nl}=1. Le paramètre q vaut environ 0,15.
  • Les chaînes de Markov sont un outil fondamental pour modéliser les processus en théorie des files d'attente et en statistiques.
  • Les chaînes de Markov fondent les systèmes de Bonus/Malus mis au point par les actuaires des sociétés d'assurances automobiles (la probabilité d'avoir n accidents au cours de l'année t étant conditionnée par le nombre d'accidents en t-1)
  • Les chaînes de Markov sont également utilisées en bioinformatique pour modéliser les relations entre symboles successifs d'une même séquence (de nucléotides par exemple), en allant au-delà du modèle polynomial. Les modèles markoviens cachés ont également diverses utilisations, telles que la segmentation (définition de frontières de régions au sein de séquences de gènes ou de protéines dont les propriétés chimiques varient), l'alignement multiple, la prédiction de fonction, ou la découverte de gènes (les modèles markoviens cachés sont plus « flexibles » que les définitions strictes de type codon start + multiples codons + codons stop et ils sont donc plus adaptés pour les eucaryotes (à cause de la présence d'introns dans le génome de ceux-ci) ou pour la découverte de pseudo-gènes).
Page générée en 0.765 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise