Chaîne de Markov - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Notation

Dans les formules qui précèdent, l'élément (i, j) est la probabilité de la transition de i à j. La somme des éléments d'une ligne vaut toujours 1 et la distribution stationnaire est donnée par le vecteur propre gauche de la matrice de transition.

On rencontre parfois des matrices de transition dans lesquelles le terme (i,j) est la probabilité de transition de j vers i, auquel cas la matrice de transition est simplement la transposée de celle décrite ici. La somme des éléments d'une colonne vaut alors 1. De plus, la distribution stationnaire du système est alors donnée par le vecteur propre droit de la matrice de transition, au lieu du vecteur propre gauche.

Loi stationnaire

Définition

Il peut exister une ou plusieurs mesures \scriptstyle\ \pi=(\pi_i)_{i\in E},\ sur l'espace d'états \scriptstyle\ E,\ telles que :

 \pi = \pi\,P,

ou bien encore

\forall j\in E,\qquad \pi_j = \sum_{i\in E}\pi_i\,p_{i,j}.

Une telle mesure \scriptstyle\ \pi\ est appelée une mesure stationnaire. Une mesure stationnaire est une fonction propre de la transposée de la matrice de transition, associée à la valeur propre 1. Elle est appelée probabilité stationnaire ou loi stationnaire si elle remplit les conditions supplémentaires :

  • \forall i\in E, \qquad \pi_i\ \ge\ 0,
  • \sum_{i\in E}\pi_i\ =\ 1.

Le terme « stationnaire » est justifié par la proposition suivante :

Proposition — Si la loi initiale de la chaîne de Markov (i.e. la loi de \scriptstyle\ X_0\ ) est une probabilité stationnaire \scriptstyle\ \pi,\ alors pour tout \scriptstyle\ n\ge 0,\ la loi de \scriptstyle\ X_n\ est encore \scriptstyle\ \pi.\

Plus généralement, la chaîne de Markov est un processus stationnaire si et seulement si sa loi initiale est une probabilité stationnaire.

Existence et unicité

Dans le cas des chaînes de Markov à espace d'états discret, certaines propriétés du processus déterminent s'il existe ou non une probabilité stationnaire, et si elle est unique ou non :

  • une chaîne de Markov est irréductible si tout état est accessible à partir de n'importe quel autre état ;
  • un état est récurrent positif si l'espérance du temps de premier retour en cet état, partant de cet état, est finie.

Si une chaîne de Markov possède au moins un état récurrent positif, alors il existe une probabilité stationnaire. S'il existe une probabilité stationnaire \scriptstyle\ \pi\ telle que \scriptstyle\ \pi_i>0\ , alors l'état \scriptstyle\ i\ est récurrent positif, et réciproquement.

Théorème — Si une chaîne de Markov possède une seule classe finale \scriptstyle\ C,\ alors il existe au plus une probabilité stationnaire. On a alors équivalence entre les 3 propositions :

  • il existe une unique probabilité stationnaire, notée \scriptstyle\ \pi,
  • il existe un état récurrent positif,
  • tous les états de la classe finale sont récurrents positifs.

On a de plus l'équivalence

\{\pi_i>0\}\Leftrightarrow\{i\in C\}\Leftrightarrow\{i\text{ est recurrent positif}\}.

Ce théorème vaut en particulier pour les chaînes de Markov irréductibles, puisque ces dernières possèdent une seule classe (qui est donc nécessairement une classe finale) ; les chaînes de Markov irréductibles vérifient en particulier \scriptstyle\ C=E.

Loi forte des grands nombres et ergodicité

Dans le cas d'une chaîne de Markov irréductible et récurrente positive, la loi forte des grands nombres est en vigueur : la moyenne d'une fonction \scriptstyle\ f\ sur les instances de la chaîne de Markov est égale à sa moyenne selon sa probabilité stationnaire. Plus précisément, sous l'hypothèse

\sum_{i\in E} |f(i)|\,\pi_i\ < +\infty,

on a presque sûrement :

 \lim_{n}\; \frac{1}{n} \; \sum_{k=0}^{n-1} f(X_k)   \ =\ \sum_{i\in E} f(i)\,\pi_i\ =\ \pi f.

La moyenne de la valeur des instances est donc, sur le long terme, égale à l'espérance suivant la probabilité stationnaire. En particulier, cette équivalence sur les moyennes s'applique si \scriptstyle\ f\ est la fonction indicatrice d'un sous-ensemble \scriptstyle\ A\ de l'espace des états :

 \lim_{n}\; \frac{1}{n} \; \sum_{k=0}^{n-1} \chi_A(X_k)\  =\ \sum_{i\in A}\ \pi_i\ =\ \pi(A).

Cela permet d'approcher la probabilité stationnaire par la distribution empirique (qui est un histogramme construit à partir d'une séquence particulière), comme par exemple dans le cas de la marche aléatoire avec barrière.

En particulier, si le processus est construit en prenant la probabilité stationnaire comme loi initiale, le shift \scriptstyle\ \theta\ défini par

 x=(x_0,x_1,x_2,\dots)\in E^{\mathbb{N}}\quad\rightarrow\quad \theta\,x=(x_1,x_2,x_3,\dots)

préserve la mesure, ce qui fait de la chaîne de Markov un système dynamique. La loi forte des grands nombres entraine alors que la chaîne de Markov est un système dynamique ergodique. L'ergodicité est à la fois plus forte que la loi forte des grands nombres car on peut en déduire, par exemple, que \scriptstyle\ \frac{1}{n} \; \sum_{k=0}^{n-1} f(X_k,X_{k+1}),\ a pour limite presque sûre \scriptstyle\ \sum_{i,j\in E} f(i,j)\,\pi_ip_{i,j},\ mais elle est aussi plus faible car elle réclame en principe la stationnarité de la chaîne de Markov, ce qui n'est pas le cas de la loi forte des grands nombres.

Convergence vers la loi stationnaire

Si la chaîne de Markov est irréductible, récurrente positive et apériodique, alors \scriptstyle\ P^k\ converge vers une matrice dont chaque ligne est l'unique distribution stationnaire \scriptstyle\ \pi.\ En particulier, la loi \scriptstyle\ \mu_n\ de \scriptstyle\ X_n\ converge vers \scriptstyle\ \pi\ indépendamment de la loi initiale \scriptstyle\ \mu_0.\ Dans le cas d'un espace d'état fini, cela se prouve par le théorème de Perron-Frobenius. Notons qu'il est naturel que la suite \scriptstyle\ \mu_n,\ définie par récurrence par la relation \scriptstyle\ \mu_{n+1}=\mu_nP,\ ait, éventuellement, pour limite un point fixe de cette transformation, i.e. une solution de l'équation \scriptstyle\ \pi=\pi P.\

Chaînes de Markov à espace d'états fini

Si une chaîne de Markov est irréductible et si son espace d'états est fini, tous ses états sont récurrents positifs. La loi forte des grands nombres est alors en vigueur.

Plus généralement, tous les éléments d'une classe finale finie sont récurrents positifs, que l'espace d'états soit fini ou bien infini dénombrable.

Page générée en 2.095 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise