Multiplicateur de Lagrange - Définition

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs est disponible ici.

Le multiplicateur de Lagrange est une méthode permettant de trouver des points stationnaires (maximum, minimum...) d'une fonction dérivable d'une ou plusieurs variables.

Cette technique est utile entre autres pour résoudre les problèmes d'optimisation sous contrainte(s) (linéaire(s)). Supposons que le problème soit de trouver un extremum d'une fonction de N variables, tout en imposant K contraintes sur les valeurs de celle-ci. La méthode consiste à introduire une inconnue scalaire supplémentaire - appelée multiplicateur de Lagrange - par contrainte; il y a donc K multiplicateurs. On forme ensuite une combinaison linéaire de la fonction et des contraintes, où les coefficients des contraintes sont les multiplicateurs de Lagrange. Le problème passe ainsi d'un problème d'optimisation avec contrainte à un problème non contraint, qui peut être résolu par une méthode adaptée (gradient conjugué, par exemple).

Hugh Everett a généralisé la méthode aux fonctions non-dérivables, sous réserve de disposer d'un algorithme déterminant l'optimum (ou les optima) d'une fonction sans contrainte (dans la pratique, on doit se contenter d'heuristiques).

Écriture du problème

Soit le problème d'optimisation :

\mathrm{Min}\ F(X) X = \{x_1, x_2, \ldots x_n\}

soumis à des contraintes d'égalité g_k(X) = 0 \qquad k = 1, 2, ... m

Si le nombre m de contraintes est supérieur au nombre n de variables, le problème est surcontraint et n'admet en général pas de solution.

La méthode des multiplicateurs de Lagrange stipule qu'on atteint la valeur optimale de F(X) pour les valeurs xi de X qui satisfont le système :

\left\{ \begin{matrix} \frac{\partial F(X)}{\partial x_1} - \sum_{k=1}^m \lambda_k \frac{\partial g_k(X)}{\partial x_1} &=& 0 \\ \vdots \\ \frac{\partial F(X)}{\partial x_n} - \sum_{k=1}^m \lambda_k \frac{\partial g_k(X)}{\partial x_n} &=& 0 \\ g_1(X) &=& 0\\ \vdots\\ g_m(X) &=& 0\\ \end{matrix} \right .

Cette méthode peut être généralisée aux problèmes d'optimisation incluant des contraintes d'inégalités (ou non linéaires) en utilisant les conditions de Kuhn-Tucker. Mais également sur des fonctions discrètes à maximiser ou minimiser sous contraintes, moyennant un changement d'interprétation, en utilisant la méthode des multiplicateurs d'Everett (ou de Lagrange généralisés), plus volontiers appelée méthode des pénalités.

Exemple

Supposons que l'on veuille déterminer le rayon R et la hauteur H d'un cylindre qui minimise la surface S de celui-ci, tout en ayant un volume V imposé. Le problème s'écrit sous la forme :

Minimiser S(R,H)=2\times \pi\times R\times (R+H)

sous g(R,H)=\pi\times R^2\times H-V=0

Ayant une seule contrainte, on ajoute un seul multiplicateur de Lagrange :

L(R,H,\lambda)=S(R,H)+\lambda\times g(R,H)

Le problème revient maintenant à minimiser le Lagrangien L(R,H,\lambda)=2\times\pi\times R\times H+2\times\pi\times R^2+\lambda\times(\pi\times R^2\times H-V)

On cherche donc à annuler le Gradient du Lagrangien, soit : \nabla L=0 ,

ce qui nous amène au système :

\left\{ \begin{matrix} \frac{\partial L}{\partial R} &=& 2.\pi.H+4.\pi.R+2.\pi.\lambda.H.R &=& 0 &(1)&\\ \\ \frac{\partial L}{\partial H} &=& 2.\pi.R+\lambda.\pi.R^2 &=& 0 &(2)&\\ \\ \frac{\partial L}{\partial \lambda} &=& \pi.R^2.H-V &=& 0 &(3)&\\ \end{matrix} \right .

L'équation (2) nous donne : R=-\frac{2}{\lambda}

L'équation (1) nous donne : H=-\frac{4}{\lambda}

L'équation (3) nous donne enfin : \lambda=-2\times\left(\frac{2.\pi}{V}\right)^{1/3}

Si le volume imposé est V = 1m3, l'optimum de la fonction S est :

\left\{ \begin{matrix} R\approx 0,542(m)\\ \\ H\approx 1,084(m)\\ \end{matrix} \right .

Et la fonction vaut S\approx 5,536m^2 en ce point.

Page générée en 0.095 seconde(s) - site hébergé chez Contabo
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
A propos - Informations légales
Version anglaise | Version allemande | Version espagnole | Version portugaise