Moment (mathématiques) - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs est disponible ici.

Notion de moment

La notion de moment en mathématiques, notamment en calcul des probabilités, a pour origine la notion de moment en physique.

Soit une fonction f : I \to \R continue sur un intervalle \ I (non réduit à un point) de \R . Étant donné un entier naturel n, le n-ième moment de \ f est défini (sous réserve d'existence) par :

m_n(f)=\int_I x^n\,f(x)\,dx.

Remarque : pour un entier naturel n donné, l'ensemble des fonctions continues sur \ I dont le moment d'ordre n existe est un espace vectoriel réel, et l'application \ m_n : f \mapsto m_n(f) est une forme linéaire sur cet espace vectoriel.

Problème des moments

On peut se demander si une fonction continue \ f : I \to \R dont tous les moments existent est déterminée par la suite de ses moments. Cette question est appelée problème des moments.

En d'autres termes : soient deux fonctions continues f, g : I \to \R dont chacune admet, pour tout entier naturel n, un moment d'ordre n. Si, pour tout n \in \mathbb{N},\; m_n(f)= m_n(g) , peut-on affirmer que \ f = g  ?

  • D'après un théorème de Hausdorff, la réponse est affirmative lorsque \ I est un segment [a,\, b] (c'est-à-dire lorsqu'il est fermé et borné).
Démonstration de ce théorème :
La fonction \ h = f - g est continue sur \ I , et tous ses moments sont nuls, car pour tout \ n , \ m_n(h) = m_n(f) - m_n(g) .
On en déduit, par linéarité de l'intégrale, que \int_a^b P(x)\,h(x)\,dx = 0 quel que soit le polynôme réel \ P  ;
en effet, si \ P = \sum_{k = 0}^p a_k\, X^k , alors \int_a^b P(x)\,h(x)\,dx = \sum_{k = 0}^p a_k\, m_k(h) = 0 .
Or, d'après un théorème de Weierstrass, pour toute fonction continue [a,\, b] \to \R , il existe une suite de polynômes (réels) convergeant uniformément sur [a,\, b] vers cette fonction. Il existe donc une suite \ (P_n) de polynômes qui converge uniformément vers \ h sur [a,\, b] . Alors, la suite des produits \ (P_n\, h) converge uniformément vers \ h^2 sur \ [a,\, b] et il en résulte que \int_a^b [h(x)]^2\,dx = \lim_{n \to +\infty} \int_a^b P_n(x)\,h(x)\,dx = 0 .
Comme \ h est continue sur le segment \ [a,\, b] , ceci prouve que \ h = 0 , c'est-à-dire \ f = g .
  • Dans le cas général, la réponse est négative. Voici un contre-exemple probabiliste donné par William Feller. On considère la fonction \ f :\, ]0,\, +\infty[\, \to \R^+ définie par \ f(x) = \frac{1}{x\, \sqrt{2 \pi}}\, e^{-\frac{1}{2}\, (\ln x)^2} (densité de la loi log-normale), dont tous les moments existent.
On démontre (par changement de variable) que pour tout entier naturel \ n , \int_0^{+\infty} x^n f(x) \sin(2 \pi \ln x)\, dx  = 0 .
Pour tout \ \alpha \in \R , on définit \ g_\alpha :\, ]0,\, +\infty[\, \to \R par \ g_\alpha(x) = f(x)\, [1 + \alpha \sin(2 \pi \ln x)] .
Alors : quels que soient \ \alpha \in \R et \ n \in \mathbb{N} , \ m_n(g_\alpha) = m_n(f) , bien que \ g_\alpha \neq f dès que \ \alpha \neq 0 .
Nota : pour tout \ \alpha \in \R , \int_0^{+\infty} g_\alpha(x)\, dx = 1 car \ m_0(g_\alpha) = m_0(f) . Or, si on prend \ \alpha \in [-1,\, +1] , \ g_\alpha est à valeurs positives : dans ce cas, \ g_\alpha est une densité de probabilité portée par \R^\star_+\, , distincte de \ f si \ \alpha \neq 0 , dont tous les moments existent et sont les mêmes que ceux de \ f . Ceci prouve que la loi log-normale n'est pas déterminée par ses moments.
Page générée en 0.114 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise