Économétrie - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs est disponible ici.

L'économétrie désigne l'ensemble des techniques destinées à mesurer des grandeurs économiques.

Dans ce cadre, elle remplit trois fonctions :

  • La mesure de grandeurs préalablement définies par l'économie (emploi, croissance, valeur ajoutée, etc.);
  • La vérification empirique de relations entre ces grandeurs prédites par des modèles issus de l'économie mathématique ;
  • L'étude a priori de relations entre grandeurs mathématiques indépendamment d'un modèle économique sous-jacent.

L'économétrie est ainsi la branche de la statistique appliquée à l'économie.

Histoire de l'économétrie

La société d'économétrie et la Cowles Commission

Si la science économique s'est souvent tournée vers les mathématiques pour appréhender son objet d'étude, on peut considérer que l'économétrie commence à se développer sous sa forme moderne dans les années 1920. L'économiste norvégien Ragnar Frisch va jouer un rôle important dans la naissance de cette discipline et dans son institutionnalisation. On lui attribue d'ailleurs souvent la paternité du terme. En 1930, accompagné d'Irving Fisher, il fonde la Société d'économétrie (Econometric society) dont l'objet essentiel est de " favoriser les études à caractère quantitatif qui tendent à rapprocher le point de vue théorique du point de vue empirique dans l’exploration des problèmes économiques ", puis en 1933, il crée la revue Econometrica qui sera le principal véhicule de la pensée économétrique.

Les travaux de la Cowles Commission for research in economics (groupe de recherche créé en 1932 à l'université du Colorado, qui s'installe à l'université de Chicago puis à l'université de Yale, dont les travaux portent sur la relation entre les théories économiques, les mathématiques et les statistiques) permettront le développement de techniques d'estimations pour des systèmes d'équations simultanées. Trygve Haavelmo, lauréat du P"prix Nobel d'économie" en 1989, fait partie de ce groupe de recherche.

Implantation de la discipline et période moderne

Après la Seconde Guerre mondiale, l'économétrie se développe très rapidement. Cette croissance va s'effectuer sur plusieurs niveaux.

  • Elle acquiert tout d'abord une forte renommée grâce à l'attribution de nombreux "prix Nobel d'économie", à des économistes réputés pour le formalisme mathématique de leurs travaux.
  • Elle gagne du terrain dans le champ de la science économique qui devient de plus en plus dépendante des mathématiques.
  • Elle acquiert un statut institutionnel de plus en plus important. En France par exemple, son enseignement est dispensé dans de nombreuses universités.
  • Les techniques économétriques se perfectionnent, ce qui les rend plus opérationnelles, et ce qui en fait des outils précieux d'aides aux décisions économiques.

On peut distinguer deux grandes périodes dans la recherche économétrique moderne. Jusqu'à la fin des années 1970, les travaux s'orientent vers la spécification et la solvabilité de modèles macroéconomiques à équations simultanées. Puis, à la suite de l'introduction des anticipations rationnelles et de la critique de Lucas, la recherche se tourne vers la microéconomie et l'analyse des séries temporelles.

Durant la première période, la recherche économétrique porte essentiellement sur les conditions d'estimation des modèles macroéconomiques d'équations simultanées comportant un élément aléatoire. Chronologiquement, les avancées vont s'effectuer ainsi :

  • 1939 : Tinbergen construit un modèle des cycles économiques comportant des équations de comportement. Chacune des équations est estimée au moyen de la méthode des moindres carrés.
  • 1944 : Haavelmo pose les conditions générales de solvabilité.
  • 1945/1950 : Klein présente les premiers modèles dont la solution est obtenue par la méthode du maximum de vraisemblance.
  • 1949 : Koopmans détermine les conditions de solvabilité dans le cas d'un modèle linéaire.
  • 1954 : Theil introduit la méthode des doubles moindres carrés.
  • 1955 : premier modèle prévisionnel conçu par Klein/Goldberger.
  • Dans les années 1960 et années 1970, l'avancée des technologies de l'information entraîne l'apparition de modèles macroéconomiques conçus à des fins de prévision. Par exemple, le modèle de Brookings comprend 400 équations. Après 1970 furent utilisés des modèles standards comme celui de Wharton.
  • Les années 1970 consacrent également la remise en cause des modèles macroéconométriques traditionnels. Notamment parce que, suite à leur inefficacité à expliquer et prévoir la stagflation consécutive aux chocs pétroliers, ils seront accusés de ne pas posséder suffisamment de fondations microéconomiques. Lucas montre par exemple dès 1972 le lien entre les anticipations des agents économiques et la variation des coefficients structurels des modèles macroéconométriques. Sa conclusion est alors que toute mesure de politique économique conduit à un changement dans le comportement des agents, et que par conséquent, ces agents sont à même de contrer les politiques gouvernementales en les anticipant. Ce qui réduit considérablement l'intérêt des politiques budgétaires et monétaires.

Méthodes de l'économétrie

Les méthodes de l'économétrie sont très variées. En économie mathématique, on retrouve des outils mathématiques très divers comme l'algèbre, l'analyse, la théorie des jeux et la probabilité. Du point de vue de la statistique appliquée à l'économie, on pourra retenir la statistique descriptive, l'analyse des données et la statistique mathématique. Les techniques économétriques au sens strict, sont généralement issus de la statistique mathématique. On retiendra également l'importance de l'algèbre matricielle.

Dans les techniques économétriques au sens strict, on trouve en premier lieu les modèles de régression linéaire classiques qui reposent sur de nombreuses hypothèses, puis des modèles plus complexes, qui font sauter une à une ces mêmes hypothèses.

Modèles de régression linéaire

Les modèles de régression linéaire cherchent à déterminer une relation linéaire entre une ou plusieurs variables explicatives (on utilisait à l'origine le terme de variables exogènes, mais l'exogénéité est un concept protéiforme, on distingue aujourd'hui l'exogénéité faible --qui permet la régression -- de l'exogénéité forte -- qui permet la prévision -- et enfin la super-exogénéité -- utile en analyse de politique économique, voir Engle, Hendry & Richard, 1983: "Exogeneity", Econometrica, 51, pp. 277-304) et une ou plusieurs variables déterminées (ou endogène) à partir d'un ensemble de n observations qualitatives ou quantitatives. On considère en général que les écarts entre les observations et les relations entre les variables peuvent être expliqués par différentes sources d'erreurs :

  • l'agrégation des comportements des agents économiques qui ne prennent pas tous leur décision de manière rigoureusement identique,
  • l'existence d'erreurs de mesure des variables,
  • l'existence des variables explicatives qui ne sont pas inclues dans la relation,
  • des erreurs qui viennent de ce que la vraie relation n'est pas linéaire.

Dans ces trois derniers cas l’on dit que la relation a été mal spécifiée. Ces sources d'erreurs dont considérées comme aléatoires. On les appelle des éléments aléatoires. Très souvent on suppose que de ces éléments aléatoires autour de la valeur théorique, suit une loi normale, ce qui permet de faire des estimations des paramètres du modèle d'ajustement, et d'effectuer des tests. L'objectif est alors de trouver des relations linéaires entre les variables qui minimisent l'erreur aléatoire. Différentes méthodes existent. On peut par exemple utiliser la méthode des moindres carrés.

La technique de régression dans les modèles linéaires classiques s'appuie sur quelques hypothèses fondamentales :

  • La relation entre la variable endogène et la variable explicative est linéaire.
  • La constance de cette relation
  • L'indépendance entre les éléments aléatoires et les variables explicatives
  • Les variables endogènes observées possèdent un élément aléatoire.
  • L'espérance mathématique des éléments aléatoires est nulle.
  • La variance de l'élément aléatoire est constante. C'est l'hypothèse d'homoscédasticité
  • Les éléments aléatoires sont statistiquement indépendants entre eux (à diverses dates, pour différents individus...).
  • Les éléments aléatoires sont distribués suivant une loi normale. Cette propriété se déduit du théorème central limite.
  • Les variables explicatives ne sont pas corrélées entre elles.

Historiquement, on considérait que les variables explicatives étaient exemptes d'éléments aléatoires. Ce n'est plus le cas depuis les années 1980, les propriétés des variables endogènes et explicatives doivent être similaires: ce sont des processus aléatoires "similaires", i.e. soient stationnaires, soient qui peuvent être facilement transformés en processus stationnaires de la même manière (on parle de processus intégrés).

Lorsqu'on fait sauter une ou plusieurs de ces hypothèses, on entre dans des modèles économétiques particuliers, dont les modèles non linéaires.

Modèle de régression non linéaire

  • Kernel Partial Least Squares
  • Support Vector Machines
  • Least Squares
  • Maximum a posteriori
  • Plus proches voisins (flous)
  • Neural Networks Regression

Modèle non paramétrique

Tests de causalité

Modèles dynamiques et séries temporelles

  • AR (Modèle Auto-régressif) : Les observations retardées de la variable à expliquer Y\, sont incluses dans le modèle.
  • MA (Moving Average en anglais, Moyenne Mobile en Français) : Les résidus des périodes précédentes sont dans le modèle.
  • ARMA : Cette classe de modèle généralise les processus AR et MA.
  • VAR (processus vectorielle auto-régressif) : Processus AR mais généralisé au cas multivarié.

Principaux résultats et applications de l'économétrie

Les tests économétriques ont apporté un éclairage intéressant à des théories économiques dont étaient tirées certaines politiques économiques. Par exemple, les monétaristes vont remettre en cause la pertinence de la courbe de Phillips en se fondant sur des données statistiques de long terme. De même, les tests économétriques vont fortement affaiblir le lien, crucial chez les keynésiens, entre consommation nationale et revenu national.

Concernant les applications, l'économétrie va trouver des débouchés dans la finance et dans les politiques économiques budgétaires et financières. Le modèle développé par Black et Scholes par exemple, permet de calculer la valeur des options. Des modèles macroéconométriques ont également été mis en place dès les années 1950 pour prévoir l'impact des politiques économiques. La question se pose dès lors de savoir si l'utilisation des modèles macroéconométriques a un impact sur son objet d'étude. Problème que les monétaristes et les théoriciens des anticipations rationnelles comme Lucas ne manqueront pas de souligner.

Problèmes épistémologiques de l'économétrie

C'est au départ dans le but de faire coincider les théories économiques avec les données, que les économistes ont mis en place tout un ensemble de techniques économétriques. Leur objectif était de déterminer quels modèles économiques pouvaient être considérés comme les plus vraisemblables. Ainsi, en s'appuyant sur un processus de sélection des modèles de type poppérien (les modèles les moins vraisemblables devant être progressivement éliminés), ils espéraient pouvoir approcher au mieux la réalité économique sans avoir à intervenir sur elle. Toutefois, cette amélioration fut loin d'être systématique. Ceci, malgré une perfection croissante des techniques économétriques. La haute technicité mathématique en économétrie ne doit donc pas masquer le fait que l'économie ne peut prétendre devenir : d'une part une science expérimentale au même titre que la physique, la chimie, la biologie ou la psychologie expérimentale, et d'autre part une science d'observation aussi précise et " neutre " que la cosmologie ou la démographie.

Sans prétendre à l'exhaustivité, on peut y voir plusieurs raisons :

  • Des raisons d'ordre éthique

Au niveau macroéconomique, une expérience de grande ampleur pourrait plonger un pays dans la récession et engager ainsi la vie de millions de personnes. Au niveau microéconomique, toute intervention concurrencerait les agents déjà impliqués sur le terrain. D'une manière générale, toute forme d'expérimentation qui implique des personnes humaines pose d'évidents problèmes éthiques.

  • Des raisons qui concernent la spécificité des agents économiques

Certaines théories et prédictions économiques ne peuvent être directement testées par l'expérimentation, car il n'est pas possible de répliquer tous les phénomènes économiques dans des conditions de laboratoire, notamment quand l'objet d'étude est trop vaste (de la taille d'une nation ou plus). D'autre part, dès qu'ils prennent connaissance des lois économiques, les agents peuvent modifier leurs comportements (l'exemple typique est la prophétie auto-réalisatrice). En outre, les comportements sociaux sont complexes et toujours soumis à une forte part d'aléas, d'irrationalité, et de libre-arbitre. Qui plus est, la réalité économique est souvent très changeante. Il est alors difficile de comparer les variables économiques sur de longues périodes, car les conditions économiques peuvent varier du tout au tout. Enfin, derrière les choix économiques se cachent très souvent un choix politique sous-jacent qui se produit à l'intérieur d'un environnement social spécifique ; ce qui ne manque pas de soulever le problème de savoir si les lois économiques sont des lois naturelles, ou si elles sont le résultat de l'intervention volontaire des agents économiques.

  • Des raisons épistémologiques

Les variables retenues pour cerner l'objet économique peuvent être plus ou moins orientées en fonction de certaines finalités propres à l'observateur (celui-ci ne montrera qu'un aspect partiel et partial de la réalité économique). Autre point, différents tests peuvent conduire à la validation d'hypothèses antagonistes, car la variabilité des techniques économétriques, des configurations historiques, des données disponibles, et les incertitudes théoriques, ne permettent pas toujours de trancher entre différents modèles. Et enfin, le rejet d'un modèle n'implique pas nécessairement que ce modèle soit irréaliste. Il indique seulement, que sous certaines conditions, qui ne se reproduiront pas nécessairement, un modèle a une forte probabilité d'être irréaliste ou faux. Dernier point, sur le plan méthodologique, le recours aux mathématiques en économie est sujet à caution pour de nombreuses raisons (variabilité du comportement, complexité de l'objet d'étude, fluctuations erratiques des prix, corrélations peu robustes entre les variables, etc.)

Bref, l'économétrie est bien loin d'être une " science dure ". Cependant, si on fait abstraction de ces nombreuses difficultés, il faut admettre qu'elle a fait preuve d'une certaine efficacité pour mesurer l'impact des politiques macro-économiques. La partie " validation des théories " faisant quant à elle l'objet d'interminables controverses.

D'autre part, on remarquera que le succès de l'économétrie ne fait pas forcément l'unanimité chez les économistes. Certains penseurs de l'école autrichienne comme Ludwig von Mises, contestent l'intérêt de la formalisation du comportement économique. De plus, comme John Kenneth Galbraith l'avait noté, l'économie professionnelle est organisée hiérarchiquement : économie hétérodoxe à la base, économie néo-libérale au sommet et les formes les plus mathématiques de l'économie néo-libérale à la pointe. On se doute bien que ce classement hiérarchique crée des dissensions au sein de la communauté des économistes, dont certains membres refusent d'adopter un formalisme mathématique jugé parfois excessif et superflu.

Il faut aussi noter que récemment, l'économie expérimentale, nouvelle branche de l'économie consistant à effectuer des expériences de laboratoire pour tester les modèles micro-économiques, est venue concurrencer l'économétrie sur le terrain de la validation des théories. Les résultats qui émanent de cette nouvelle discipline sont souvent en contradiction flagrante avec les hypothèses qui sous-tendent les modèles écométriques fondés sur des modèles d'équilibre général, ce qui tend à réduire la portée heuristique de la micro-économétrie.

"prix Nobel d'économie"

Le Prix de la Banque de Suède en sciences économiques en mémoire d'Alfred Nobel ("prix Nobel d'économie") a été décerné à plusieurs reprises pour des travaux économétriques:

  • Jan Tinbergen et Ragnar Frisch ont reçu le premier "prix Nobel d'économie" décerné en 1969.
  • Lawrence Klein a reçu le prix en 1980
  • Daniel McFadden et James Heckman partagent le prix en 2000 pour leur travaux en microéconométrie.
  • Robert Engle et Clive Granger ont reçu le prix en 2003 pour leurs analyses économiques des séries temporelles. Engle est un pionner de la méthode ARCH et Granger a développé la méthode de cointégration.
Page générée en 0.093 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales | Partenaire: HD-Numérique
Version anglaise | Version allemande | Version espagnole | Version portugaise