Arma - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Introduction

En statistiques, les modèles ARMA (modèles autorégressifs et moyenne mobile), ou aussi modèle de Box-Jenkins, sont les principaux modèles de séries temporelles.

Étant donné une série temporelle Xt, le modèle ARMA est un outil pour comprendre et prédire, éventuellement, les valeurs futures de cette série. Le modèle est composé de deux parties : une part autorégressive (AR) et une part moyenne-mobile (MA). Le modèle est généralement noté ARMA(p,q), où p est l'ordre de la partie AR et q l'ordre de la partie MA.

Modèle autorégressif

La notation AR(p) réfère au modèle autorégressif d'ordre p. Le modèle AR(p) se note

 X_t = c + \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t .\,

\varphi_1, \ldots, \varphi_p sont les paramètres du modèle, c est une constante et \varepsilon_t un bruit blanc. La constante est bien souvent omise dans la littérature.

Des contraintes supplémentaires sur les paramètres sont nécessaires pour garantir la stationnarité. Par exemple, pour le modèle AR(1), les processus tels que |φ1| ≥ 1 ne sont pas stationnaires.

Exemple : un processus AR(1)

Un modèle AR(1) est donné par :

X_t = c + \varphi X_{t-1}+\varepsilon_t,\,

\varepsilon_t est un bruit blanc, de moyenne nulle et de variance σ2. Le modèle est stationnaire en variance si |\varphi|<1. Si \varphi=1, alors le processus exhibe une racine unitaire (en), ce qui signifie qu'il est une marche aléatoire, et n'est pas stationnaire en variance. Supposons donc |\varphi|<1, et en notant la moyenne μ, on obtient

\mbox{E}(X_t)=\mbox{E}(c)+\varphi\mbox{E}(X_{t-1})+\mbox{E}(\varepsilon_t)\Rightarrow \mu=c+\varphi\mu+0.

Ainsi

\mu=\frac{c}{1-\varphi}.

En particulier, prendre c = 0 revient à avoir une moyenne nulle.

La variance vaut

\textrm{var}(X_t)=E(X_t^2)-\mu^2=\frac{\sigma^2}{1-\varphi^2}.

La fonction d'autocovariance se donne par

B_n=E(X_{t+n}X_t)-\mu^2=\frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|n|}.

On peut voir que la fonction d'autocovariance décroît avec un taux de \tau=-1/\ln(\varphi).

La densité spectrale de puissance est la transformée de Fourier de la fonction d'autocovariance. Dans le cas discret, cela s'écrit :

\Phi(\omega)= \frac{1}{\sqrt{2\pi}}\,\sum_{n=-\infty}^\infty B_n e^{-i\omega n} =\frac{1}{\sqrt{2\pi}}\,\left(\frac{\sigma^2}{1+\varphi^2-2\varphi\cos(\omega)}\right).

Ce développement est périodique dû à la présence du terme en cosinus au dénominateur. En supposant que le temps d'échantillonnage (Δt = 1) est plus petit que le decay time (τ), alors on peut utiliser une approximation continue de Bn :

B(t)\approx \frac{\sigma^2}{1-\varphi^2}\,\,\varphi^{|t|}

qui présente une forme lorentzienne pour la densité spectrale :

\Phi(\omega)= \frac{1}{\sqrt{2\pi}}\,\frac{\sigma^2}{1-\varphi^2}\,\frac{\gamma}{\pi(\gamma^2+\omega^2)}

γ = 1 / τ est la fréquence angulaire associée à τ.

Une expression alternative pour Xt peut être dérivée en substituant Xt − 1 par c+\varphi X_{t-2}+\varepsilon_{t-1} dans l'équation définissante. En continuant cette manipulation N fois fournit

X_t=c\sum_{k=0}^{N-1}\varphi^k+\varphi^NX_{t-N}+\sum_{k=0}^{N-1}\varphi^k\varepsilon_{t-k}.

Pour N devenant très grand, \varphi^N s'approche de 0 et :

X_t=\frac{c}{1-\varphi}+\sum_{k=0}^\infty\varphi^k\varepsilon_{t-k}.

On peut voir que Xt est le bruit blanc convolé avec le noyau \varphi^k plus une moyenne constante. Si le bruit blanc est gaussien, alors Xt est aussi un processus normal. Dans les autres cas, le théorème central limite indique que Xt sera approximativement normal lorsque \varphi est proche de l'unité.

Estimation des paramètres AR

Le modèle AR(p) est donné par

 X_t = \sum_{i=1}^p \varphi_i X_{t-i}+ \varepsilon_t.\,

Les paramètres à estimer sont \varphi_ii = 1, ..., p. Il y a une correspondance directe entre ces paramètres et la fonction de covariance (et donc d'autocorrélation) et on peut tirer les paramètres en inversant ces relations. Ce sont les équations de Yule-Walker :

 \gamma_m = \sum_{k=1}^p \varphi_k \gamma_{m-k} + \sigma_\varepsilon^2\delta_m

m = 0, ... , p, ce qui donne en tout p + 1 équations. Les coefficients γm est la fonction d'autocorrélation de X, \sigma_\varepsilon est la déviation (écart-type) du bruit blanc et δm le symbole de Kronecker.

La dernière partie de l'équation est non-nulle si m = 0 ; en prenant m > 0, l'équation précédente s'écrit comme un système matriciel

\begin{bmatrix} \gamma_1 \\ \gamma_2 \\ \gamma_3 \\ \vdots \\ \end{bmatrix}   =  \begin{bmatrix} \gamma_0 & \gamma_{-1} & \gamma_{-2} & \dots \\ \gamma_1 & \gamma_0 & \gamma_{-1} & \dots \\ \gamma_2 & \gamma_{1} & \gamma_{0} & \dots \\ \vdots      & \vdots         & \vdots       & \ddots \\ \end{bmatrix}   \begin{bmatrix} \varphi_{1} \\ \varphi_{2} \\ \varphi_{3} \\  \vdots \\ \end{bmatrix}

Pour m = 0, nous avons

 \gamma_0 = \sum_{k=1}^p \varphi_k \gamma_{-k} + \sigma_\varepsilon^2

qui permet de trouver \sigma_\varepsilon^2.

Les équations de Yule-Walker procurent un moyen d'estimer les paramètres du modèle AR(p), en remplaçant les covariances théoriques par des valeurs estimées. Une manière d'obtenir ces valeurs est de considérer la régression linéaire de Xt sur ses p premiers retards.

Obtention des équations de Yule-Walker

L'équation définissante du processus AR est

 X_t = \sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t.\,

En multipliant les deux membres par Xtm et en prenant l'espérance, on obtient

E[X_t X_{t-m}] = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right]+ E[\varepsilon_t X_{t-m}].

Or, il se trouve que E[XtXtm] = γm par définition de la fonction d'autocorrélation. Les termes du bruit blancs sont indépendants les uns des autres et, de plus, Xtm est indépendant de εtm est plus grand que zéro. Pour m > 0, E[εtXtm] = 0. Pour m = 0,

E[\varepsilon_t X_{t}]  = E\left[\varepsilon_t \left(\sum_{i=1}^p \varphi_i\,X_{t-i}+ \varepsilon_t\right)\right] = \sum_{i=1}^p \varphi_i\, E[\varepsilon_t\,X_{t-i}] + E[\varepsilon_t^2] = 0 + \sigma_\varepsilon^2,

Maintenant, on a pour m ≥ 0,

\gamma_m = E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right] + \sigma_\varepsilon^2 \delta_m.

Par ailleurs,

E\left[\sum_{i=1}^p \varphi_i\,X_{t-i} X_{t-m}\right] = \sum_{i=1}^p \varphi_i\,E[X_{t} X_{t-m+i}] = \sum_{i=1}^p \varphi_i\,\gamma_{m-i},

qui donne les équations de Yule-Walker :

\gamma_m = \sum_{i=1}^p \varphi_i \gamma_{m-i} + \sigma_\varepsilon^2 \delta_m.

pour m ≥ 0. Pour m < 0,

\gamma_m = \gamma_{-m} = \sum_{i=1}^p \varphi_i \gamma_{|m|-i} + \sigma_\varepsilon^2 \delta_m.
Page générée en 1.628 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise