Entropie - Définition et Explications

Source: Wikipédia sous licence CC-BY-SA 3.0.
La liste des auteurs de cet article est disponible ici.

Définition de l'entropie selon la physique statistique

La matière est formée de particules (molécules, atomes, électrons...) en perpétuel mouvement (agitation thermique) exerçant les unes sur les autres une force attractive (interactions) dont l'intensité décroit lorsque leur distance mutuelle augmente. Dans un gaz (Un gaz est un ensemble d'atomes ou de molécules très faiblement liés et quasi-indépendants. Dans l’état gazeux, la matière n'a pas de forme propre ni de volume propre :...) cette distance est relativement grande, les interactions sont donc faibles, de sorte que les particules sont libres de se déplacer dans tout (Le tout compris comme ensemble de ce qui existe est souvent interprété comme le monde ou l'univers.) le volume (Le volume, en sciences physiques ou mathématiques, est une grandeur qui mesure l'extension d'un objet ou d'une partie de l'espace.) qui leur est offert, mais subissent de nombreuses collisions au cours desquelles leur énergie (Dans le sens commun l'énergie désigne tout ce qui permet d'effectuer un travail, fabriquer de la chaleur, de la lumière, de produire un mouvement.) varie. Dans un liquide (La phase liquide est un état de la matière. Sous cette forme, la matière est facilement déformable mais difficilement compressible.) les distances mutuelles sont plus petites et les molécules sont moins libres : elles peuvent se déplacer dans tout le volume du liquide mais ne peuvent pas en sortir. Dans un solide chaque molécule (Une molécule est un assemblage chimique électriquement neutre d'au moins deux atomes, qui peut exister à l'état libre, et qui...) est liée élastiquement à ses voisines et vibre autour (Autour est le nom que la nomenclature aviaire en langue française (mise à jour) donne à 31 espèces d'oiseaux qui, soit appartiennent au genre Accipiter, soit constituent les 5 genres...) d'une position moyenne (La moyenne est une mesure statistique caractérisant les éléments d'un ensemble de quantités : elle exprime la grandeur qu'auraient chacun des membres de l'ensemble s'ils...) fixe. Il en résulte que, dans tous les cas, la position et l'énergie de chaque particule sont aléatoires.

La somme des énergies de toutes les particules d'un système thermodynamique (On peut définir la thermodynamique de deux façons simples : la science de la chaleur et des machines thermiques ou la science des grands systèmes en équilibre. La...) donné s'appelle l'énergie interne (En France, ce nom désigne un médecin, un pharmacien ou un chirurgien-dentiste, à la fois en activité et en formation à l'hôpital ou en cabinet pendant une durée variable selon le...) U du système. Lorsque le système est isolé, c'est-à-dire qu'il n'échange ni matière (La matière est la substance qui compose tout corps ayant une réalité tangible. Ses trois états les plus communs sont l'état solide, l'état liquide,...) ni énergie avec l'extérieur, on dit que ce système se trouve dans l'ensemble (En théorie des ensembles, un ensemble désigne intuitivement une collection d’objets (les éléments de l'ensemble), « une multitude qui peut être...) microcanonique. Son état macroscopique est caractérisé par son volume V et son énergie interne U. Cependant les particules peuvent être disposées dans le volume d'un très grand nombre (La notion de nombre en linguistique est traitée à l’article « Nombre grammatical ».) de façons différentes; de même l'énergie interne peut être répartie sur les particules d'un très grand nombre de façons différentes. Chaque façon de placer les molécules dans le volume et de leur distribuer l'énergie interne s'appelle une configuration microscopique de l'état macroscopique caractérisé par le volume V et l'énergie interne U. Le nombre de particules étant, dans un système macroscopique, immensément grand (de l'ordre de 1023) le nombre Ω(U,V) de ces configurations microscopiques est lui-même immensément grand. On définit alors l'entropie (En thermodynamique, l'entropie est une fonction d'état introduite en 1865 par Rudolf Clausius dans le cadre du deuxième principe, d'après les travaux de Sadi Carnot. Clausius a montré que le rapport Q / T...) S (fonction de U et V) par :

{S=k_B\cdot\ln(\Omega)}

kB = 1,381.10 − 23J.K − 1 s'appelle la constante de Boltzmann (La constante de Boltzmann k (ou kB) a été introduite par Ludwig Boltzmann lors de sa définition de l'entropie en 1873. Le système étant à l'équilibre macroscopique, mais libre...).

Cette relation a été proposée par Ludwig Boltzmann vers les années 1870 alors que la notion d’états microscopiques était encore très spéculative, parce que les atomes (Un atome (du grec ατομος, atomos, « que l'on ne peut diviser ») est la plus petite partie d'un corps...) et leurs propriétés quantiques étaient mal connus. Il a été en butte à la moquerie des scientifiques de son époque ce qui l'a vraisemblablement conduit au suicide (Le suicide (du latin suicidium, du verbe sui caedere « se massacrer soi-même ») est l’acte délibéré de mettre fin à sa...). Aujourd'hui il est considéré comme le père fondateur de la thermodynamique statistique (Une statistique est, au premier abord, un nombre calculé à propos d'un échantillon. D'une façon générale, c'est le...). Sur sa tombe à Vienne est gravée sa formule à l'origine du concept de l'entropie.

Un système évolue en permanence d'une configuration microscopique à une autre, jusqu'à ce qu'il atteigne l'équilibre. On admet alors le principe fondamental suivant :

Étant donné un système isolé en équilibre, il se trouve avec probabilités égales dans chacun de ses micro-états accessibles.

Cet axiome (Un axiome (du grec ancien αξιωμα/axioma, « considéré comme digne, convenable, évident en soi ») désigne une vérité...) est l'énoncé le plus profond du deuxième principe de la thermodynamique.

L'entropie jouit de la propriété d'additivité (on dit que c'est une grandeur extensive) : l'entropie d'un système à l'équilibre est égale à la somme des entropies de chacune de ses parties. Par exemple si l'on sépare le système en deux parties, d'entropies respectives S1 et S2 et ayant pour chacune des parties Ω1 et Ω2 configurations, l'entropie globale S est égale à S1 + S2. D'où :

S = S_1 + S_2 = k_B \cdot \ln (\Omega_1) + k_B \cdot \ln ( \Omega_2 )= k_B \cdot \ln ( \Omega_1 \Omega_2) = k_B \cdot \ln ( \Omega)

Il s'ensuit que le nombre de configurations du système Ω = Ω1Ω2.

Équilibre et maximum d'entropie

L'axiome précédent peut être formulé d'une autre manière :

Un système isolé atteint l'équilibre lorsque son entropie devient maximale.

Ces deux manières de formuler le principe fondamental de la physique statistique (La physique statistique a pour but d'expliquer le comportement et l'évolution de systèmes physiques comportant un grand nombre de particules (on parle...) sont équivalentes. La notion d'équilibre est liée à celle de système soumis à des contraintes extérieures. La définition (Une définition est un discours qui dit ce qu'est une chose ou ce que signifie un nom. D'où la division entre les définitions réelles et les définitions nominales.) du système est très importante, et on considère ici, que le système se trouve dans l'ensemble microcanonique.

Exemples de compréhension

  • Entropie et désordre

Il est courant de dire que l'entropie est une mesure du désordre. En effet, considérons par exemple un jeu de 52 cartes et posons-les toutes du même côté (ordre parfait) ; cet état macroscopique ne peut être réalisé que d'une seule façon : Ω = 1. Retournons 1 carte, ce qui est le début du désordre ; mais il y a Ω = 52 façons de réaliser l'état macroscopique "une seule carte retournée". Le désordre est maximum quand 26 cartes sont d'un côté et 26 cartes de l'autre côté ; le nombre de configurations microscopiques de cet état de désordre maximum est alors Ω = 4,96.1014 ! Dans cet exemple, le nombre de configurations microscopiques (donc l'entropie) est bien une mesure du désordre. Mais il faut être prudent dans l'utilisation de cette notion de désordre, qui est souvent subjective, et lui préférer le nombre Ω de configurations qui est objectif (c'est un nombre).

  • Équilibre et maximum d'entropie

Reprenons le jeu de 52 cartes et supposons qu'on les jette en l'air (L'air est le mélange de gaz constituant l'atmosphère de la Terre. Il est inodore et incolore. Du fait de la diminution de la pression de l'air avec l'altitude, il est nécessaire de...) de telle sorte que chaque carte retombe d'un côté ou de l'autre avec la même probabilité. Si l'on recommence l'opération un grand nombre de fois, les valeurs numériques précédentes montrent que le désordre maximum apparaîtra beaucoup plus souvent que toute autre situation (En géographie, la situation est un concept spatial permettant la localisation relative d'un espace par rapport à son environnement proche ou non. Il inscrit un lieu dans un cadre...).

Considérons maintenant un gaz dans un récipient de volume V. Il comporte non pas 52 molécules mais de l'ordre de 1023. Parmi toutes les façons possibles de ranger ces molécules, il y en a un certain nombre qui laissent la moitié du volume vide (Le vide est ordinairement défini comme l'absence de matière dans une zone spatiale.) (ce qui correspond à toutes les cartes du même côté) mais un nombre immensément plus grand pour lesquelles elles sont uniformément réparties dans tout le volume. Comme toutes ces configurations microscopiques sont équiprobables, la répartition uniforme est réalisée immensément plus souvent que toute autre situation, au point (Graphie) qu'elle apparaît macroscopiquement comme un équilibre stationnaire; et ceci simplement parce que le nombre de configurations microscopiques, et donc l'entropie, qui lui correspondent ont leur valeur maximale. L'équilibre d'un système thermodynamique se produit quand son entropie a la valeur maximale compatible avec les contraintes auxquelles il est soumis (ici la contrainte est le volume).

  • Évolution inéluctable vers le désordre

Considérons toujours le jeu de 52 cartes. On les ordonne en les rangeant par ordre décroissant de valeur, de l’as au 2 dans chaque couleur ; les couleurs étant rangées dans l’ordre suivant : trèfle (Les trèfles sont des plantes herbacées de la famille des Fabacées (Légumineuses), appartenant au genre Trifolium.), carreau, cœur et pique. Avec cette contrainte définissant l'ordre parfait, il n’existe qu’une seule configuration ordonnée : Ω(ordonnée) = 1. L’entropie définie selon Boltzmann serait alors égale à :

S = k Ln Ω(ordonnée) = 0 (le système est parfaitement ordonné)

Combien y a-t-il d’arrangements possibles des cartes dans le jeu, c’est-à-dire de configurations ?

Ω = factorielle de 52 = 52 ! = 8.1067

On constate alors que les configurations désordonnées sont extrêmement majoritaires par rapport à la configuration ordonnée.

Supposons maintenant que l’on fasse évoluer le système ordonné en battant le jeu toutes les secondes. Existe-t-il une chance de revenir à l’état initial ordonné ?

Toutes les configurations ont la même probabilité et il y en a 8.1067. Supposons que chaque configuration existe pendant 1 seconde ( Seconde est le féminin de l'adjectif second, qui vient immédiatement après le premier ou qui s'ajoute à quelque chose de nature identique. La seconde est une unité de mesure du temps. La seconde d'arc est une mesure...), il faudrait battre le jeu pendant 8.1067 s, soit 2,5.1051 milliards d’années pour avoir peut-être une chance de revenir à l’état ordonné. On peut donc conclure avec certitude, que cette probabilité est quasi-nulle.

Réfléchissons maintenant sur une mole de gaz parfait (Le gaz parfait est un modèle thermodynamique décrivant le comportement de tous les gaz réels à basse pression.) dans les conditions normales de température (La température est une grandeur physique mesurée à l'aide d'un thermomètre et étudiée en thermométrie. Dans la vie...) et de pression (La pression est une notion physique fondamentale. On peut la voir comme une force rapportée à la surface sur laquelle elle s'applique.). Le nombre de particules NA = 6,022.1023 est énorme. À l’inverse du jeu précédent où chaque carte est unique et est définie par un seul paramètre (Un paramètre est au sens large un élément d'information à prendre en compte pour prendre une décision ou pour effectuer un calcul.), chaque particule de gaz est définie par 3 paramètres de position spatiale et un paramètre d’énergie (agitation thermique). Le nombre de configurations ou complexions est faramineux. Néanmoins, grâce à la thermodynamique statistique, il a été possible de le calculer dans le cas d'un gaz parfait pris dans les conditions normales (volume molaire de 22,4 L) :

\Omega = 10^{5.10^{24}} configurations !!!

De plus, il faut remarquer qu’avec l’agitation thermique (La thermique est la science qui traite de la production d'énergie, de l'utilisation de l'énergie pour la production de chaleur ou de froid, et des transferts de chaleur suivant...), le système est en perpétuel changement. Bien évidemment les configurations désordonnées sont les plus nombreuses.

Ce sont ces configurations désordonnées qui occupent la majorité du temps (Le temps est un concept développé par l'être humain pour appréhender le changement dans le monde.) et définissent l’état d’équilibre du système à l’échelle macroscopique.

On pourrait faire la comparaison avec un tableau (Tableau peut avoir plusieurs sens suivant le contexte employé :) post-impressioniste de la période pointilliste (voir Seurat, Signac). Quand on s'approche du tableau, on devine tous les différents points de couleur (La couleur est la perception subjective qu'a l'œil d'une ou plusieurs fréquences d'ondes lumineuses, avec une (ou des) amplitude(s) donnée(s).) mais quand on s'éloigne suffisamment on a une vision d'ensemble qui est largement influencée par les points de couleur les plus nombreux.

L’application de la formule de Boltzmann permet de ramener la valeur de l'entropie à notre échelle :

 S = k.Ln(\Omega) = k.Ln(10^{5.10^{24}})

Constante de Boltzmann k = R/NA = 1,381.10-23 J.K-1

S = 159 J.K-1. C’est l’entropie d’une mole de gaz parfait dans les conditions normales.

A zéro (Le chiffre zéro (de l’italien zero, dérivé de l’arabe sifr, d’abord transcrit zefiro en italien) est un symbole marquant une position vide dans l’écriture des nombres en notation...) Kelvin (Le kelvin (symbole K, du nom de Lord Kelvin) est l'unité SI de température thermodynamique. Par convention, les noms d'unité sont des noms communs et s'écrivent...), l’agitation thermique s’arrête, le gaz se trouve alors dans l'état fondamental (En physique quantique, les états fondamentaux d'un système sont les états quantiques de plus basse énergie. Tout état d'énergie supérieure à celle des états fondamentaux est un état excité.) de plus basse énergie. Deux cas sont possibles :

  • Si l'état fondamental est non-dégénéré, il n’y a plus qu’une seule configuration et l’entropie est nulle S = 0.
  • Si l'état fondamental est dégénéré, il existe en général un nombre fini d'états dégénérés. Si g est ce nombre, l'entropie prend sa valeur minimale pour S0 = k ln g.
Page générée en 0.284 seconde(s) - site hébergé chez Amen
Ce site fait l'objet d'une déclaration à la CNIL sous le numéro de dossier 1037632
Ce site est édité par Techno-Science.net - A propos - Informations légales
Partenaire: HD-Numérique