Variance (statistiques et probabilités) - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Cas continu

Dans le cas continu, la variance se calcule de la façon suivante :

V(X)= \int_\mathbb R x^2 \cdot f(x) \cdot \mathrm dx - \left( \int_\mathbb R x \cdot f(x) \cdot \mathrm dx \right)^2

Cas discret

La variance V(X) représente la moyenne des carrés des écarts à la moyenne : elle permet de caractériser, tout comme l'écart type, la dispersion des valeurs xi par rapport à la moyenne, notée \overline {x}, ou encore E(X).

Soit une série statistique (x_i, n_i)_{i = 1 \cdots k} de moyenne \overline{x} et d'effectif total n (c’est-à-dire n=\sum_{i=1}^k n_i et p_i=\frac{n_i}{n} ).

La variance de cette série est alors :

V(X)=\sum_{i=1}^k p_i(x_i-\overline{x})^2

Simplification

La moyenne peut être considérée comme le barycentre de la série.

D'après le théorème de König , on a : V(X)=\sum_{i=1}^kp_i(x_i^2)-\overline{x}^2

Équiprobabilité

Dans le cas d'équiprobabilité,

V(X) = \frac1n\sum_{i=1}^n(x_i-\bar x)^2 = \frac1n\sum_{i=1}^n x_i^2 - \bar x^2

Remarque: égalité toujours vraie, même s'il n'y a pas équiprobabilité! (cf développer le calcul et sortir la moyenne de la somme dans le terme croisé)

Estimation

Deux estimateurs sont généralement utilisés pour la variance:

s_n^2 = \frac 1n \sum_{i=1}^n \left(y_i - \overline{y} \right)^ 2 = \left(\frac{1}{n} \sum_{i=1}^{n}y_i^2\right) - \overline{y}^2,

et

s^2_{n-1} = \frac{1}{n-1} \sum_{i=1}^n\left(y_i - \overline{y} \right)^ 2 = \frac{1}{n-1}\sum_{i=1}^n y_i^2 - \frac{n}{n-1} \overline{y}^2,

Propriétés

Biais

  • L'estimateur s^2_{n} est biaisé:  E(s^2_{n})=\frac{n-1}{n}  \sigma^2
  • L'estimateur s^2_{n-1} est sans biais.
Pourquoi n-1?

Le fait que l'estimateur de la variance doive être divisé par n-1 (et donc dans un certain sens moins précis) pour être sans biais provient du fait que l'estimation de la variance implique l'estimation d'un paramètre en plus, l'espérance. Cette correction tient compte donc du fait que l'estimation de l'espérance induit une incertitude de plus. En effet:

Théorème — si l'on suppose que l'espérance est connue, l'estimateur  S^2_{n} est sans biais

Convergence

Les estimateurs s^2_{n} et s^2_{n-1} sont convergents en probabilité.

Théorème —  s^2_{n} et s^2_{n-1} \quad \xrightarrow{p} \quad \sigma^2 si les observations sont iid (μ,σ2).

Distribution des estimateurs

En tant que fonction de variables aléatoires, l'estimateur de la variance est également une variable aléatoire. Sous l'hypothèse que les yi sont des observations indépendantes d'une loi normale, le théorème de Cochran (en) montre que s^2_{n-1} suit une loi du χ²:

 (n-1)\frac{s^2_{n-1}}{\sigma^2}\sim\chi^2_{n-1}.

En conséquence, il suit que  \operatorname{E}(s^2_{n-1})=\sigma^2. . Cette propriété d'absence de biais peut cependant être démontrée même sans l'hypothèse de normalité des observations.

Méthodes de calcul

Le calcul par ordinateur de la variance empirique peut poser certains problèmes, notamment à cause de la somme des carrés. La page anglaise: Algorithms for calculating variance décrit le problème ainsi que des algorithmes proposés.

Page générée en 0.112 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise