Loi des grands nombres - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Loi forte des grands nombres

Considérons une suite (X_n)_{n\in\N} de variables aléatoires indépendantes qui suivent la même loi de probabilité, intégrables, i. e. E(|X_0|)<+\infty . En reprenant les notations ci-dessus, la loi forte des grands nombres précise que (Y_n)_{n\in\N} converge vers E(X) « presque sûrement ».

C’est-à-dire que :

Théorème —  \mathbb{P}\left(\lim_{n \to +\infty} Y_n(\omega) = E(X)\right)=1

Autrement dit, selon la loi forte des grands nombres, la moyenne empirique est un estimateur fortement convergent de l'espérance.

Loi faible des grands nombres

La loi faible des grands nombres est également appelée théorème de Khintchine (rarement utilisé).

On considère une suite (X_n)_{n\in\N^*} de variables aléatoires indépendantes définies sur un même espace probabilisé, ayant même variance finie et même espérance notées respectivement V(X) et E(X). La loi faible des grands nombres stipule que, pour tout réel ε strictement positif, la probabilité que la moyenne empirique Y_n \equiv \bar x= \frac{1}{n} \sum_{i=1}^{n} X_i s'éloigne de l'espérance d'au moins ε, tend vers 0 quand n tend vers l'infini.

Théorème — \forall\varepsilon>0,\quad \lim_{n \to +\infty} \mathbb{P}\left(\left|\frac{X_1+X_2+\cdots+X_n}{n} -E(X)\right| \geqslant \varepsilon\right) = 0

Autrement dit, (Y_n)_{n\in\N^*} converge en probabilité vers E(X). Ce résultat est très important en statistique, puisqu'il assure que la moyenne empirique est un estimateur convergent de l'espérance.

La loi faible des grands nombres se démontre en utilisant l'inégalité de Bienaymé-Tchebychev :

Convergence vers une loi de probabilité

La loi des grands nombres permet de dire que la répartition de la population de l'échantillon peut être approchée par la loi de probabilité de X pour n assez grand.

En effet, pour tout i, la fréquence fn(i) de la valeur xi dans l'échantillon (X_1,\dots,X_n) converge vers la probabilité pi.

Pour le prouver, on fixe désormais i et l'on considère pour tout k la variable aléatoire Bk indicatrice de l'évènement (Xk = xi).
Cela signifie (par définition) que Bk(ω) = 1 si Xk(ω) = xi et Bk(ω) = 0 si X_k(\omega) \neq x_i .

La suite (Bk) est constituée de variables aléatoires indépendantes suivant la même loi de Bernoulli de paramètre pi ; elles possèdent une variance finie et leur espérance commune est E(B) = pi.

Or, pour tout n, f_n(i) = \frac{1}{n}\left(B_1+\cdots+B_n\right) . Donc la fréquence fn(i) converge vers pi :

  • en probabilité (d'après la loi faible des grands nombres)
  • presque sûrement (d'après la loi forte des grands nombres)
Page générée en 0.101 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise