loadingPage en cours de chargement
    ACCUEIL | TÉLÉCHARGER | QCM | DON | ANNONCES | CHAT | FORUM | LIVRE D'OR | PARTENAIRES | CONTACT | BLOG
 
  Rechercher
  separation
  Introduction
  Arithmétique
  Algèbre
  Analyse
  Géométrie
  Mécanique
  Électrodynamique
  Atomistique
  Cosmologie
  Chimie
  Informatique Théorique
  Maths. Sociales
  Ingénierie
  separation
  Biographies
  Références
  Liens
  separation
  Humour
  Serveur d'exercices
  separation
  Parrains
13 connectés
News News :: Erreur Erreur :: Statistiques Visiteurs :: ClearType ClearType :: Imprimer Imprimer :: Bookmark and Share

Mécanique

PRINCIPES | MÉCANIQUE ANALYTIQUE | MÉCANIQUE CLASSIQUE
MÉCANIQUE ONDULATOIREMÉCANIQUE STATISTIQUE | THERMODYNAMIQUE
MÉCANIQUE DES MILIEUX CONTINUS

32. MÉCANIQUE STATISTIQUE

Dernière mise à jour de ce chapitre: 2017-08-06 17:24:12 | {oUUID 1.817}
Version: 2.8 Révision 9 | Avancement: ~90%
viewsvues depuis le 2012-01-01: 10'437

Table des matières LISTE DES SUJETS TRAITÉS SUR CETTE PAGE

La mécanique statistique, appelée aussi "thermodynamique statistique" ou encore plus généralement "physique statistique", a pour but d'expliquer le comportement des systèmes macroscopiques (constitués d'un grand nombre d'objets en interaction) à partir de leurs caractéristiques microscopiques. C'est de façon beaucoup plus générale, la physique quantique qui décrit les propriétés et l'évolution des systèmes physiques à l'échelle microscopique. La mécanique statistique est donc construite sur cette description quantique comme nous le verrons sur les développements mathématiques qui suivront.

La démarche présentée ici est d'aborder la mécanique statistique élémentaire pour en déduire ensuite la thermodynamique. La mécanique statistique constitue en effet, avec la physique quantique et la relativité, l'un des piliers de la physique moderne dans l'explication de phénomènes à partir de leurs constituants. Il est important de la percevoir d'emblée comme une théorie fondamentale, et non pas comme une simple tentative pour justifier à posteriori la thermodynamique. La thermodynamique elle-même y gagne en retour compréhension plus juste et plus profonde de ses principes et de ses méthodes.

THÉORIE STATISTIQUE DE L'INFORMATION

Le mot "information" est utilisé dans des contextes très variés, dans des sens totalement différents suivants les disciplines scientifiques: nous pouvons à titre d'exemple citer la thermodynamique avec le concept d'entropie, la physique appliquée avec la théorie du signal, la biologie avec la théorie du génome et la physique quantique avec la probabilité d'obtenir de l'information.

Se pose alors la question, s'il est possible de construire une théorie de l'information et si elle est unique? Notre démarche ici, ne vise pas l'information en tant que telle, mais la quantité d'information. Lorsque nous parlons de quantité et de mesure, nous pensons à la notion de contenu ou de valeur de l'information. La science de l'information de par son objet doit se sentir concernée par ce questionnement. Si nous définissons "l'infométrie" comme l'ensemble des techniques de mesures mathématiques et statistiques de l'information, nous souhaiterions avoir une définition suffisamment claire du concept de quantité d'informations qui puisse nous amener à définir une mesure, c'est-à-dire un ensemble d'opérations parfaitement définies, nous amenant à des axiomes clairs et dont le résultat est un nombre. La synthèse que nous développons ici n'est pas ambitieuse.

Nous nous intéressons donc ici aux fondements de la théorie statistique de l'information connue également sous le nom de "théorie de Shannon". La formule de Shannon qui en ressort est certainement l'un des concepts fondamentaux de toute la physique puisqu'elle touche la brique irréductible de la physique: l'information !!

Nous montrerons (plus bas) qu'un système physique isolé a pour état le plus probable, celui qui contient le plus d'états et qui est donc à fortiori le plus imprévisible. L'état le plus improbable est donc celui qui est le plus prévisible. Dès lors, puisque l'imprévisibilité apparaît comme un attribut essentiel de l'information, nous identifions la mesure quantitative de l'information à son improbabilité.

Ainsi, la quantité d'information h(x) apportée par la réalisation d'un événement x de probabilité p(x) sera une fonction croissante f de son improbabilité 1/p(x):

equation   (32.1)

De plus, la réalisation de deux événements indépendants x et y apporte intuitivement une quantité d'information qui est la somme de leurs quantités d'informations respectives, soit:

equation   (32.2)

La fonction logarithme est donc par ses propriétés une candidate naturelle pour f telle que:

equation   (32.3)

equation est bien évidemment un nombre positif.

Remarque: Le choix de la base du logarithme définit l'unité d'information qui est complètement arbitraire. Par la suite, et sauf précision contraire, "log" désignera le logarithme en base equation

Ainsi, la "quantité d'information intrinsèque" d'un événement x est donc de par les propriétés du logarithme:

equation   (32.4)

Elle peut être considérée, comme nous l'avons fait, comme une mesure d'incertitude sur l'événement, ou comme celle de l'information nécessaire pour résoudre cette incertitude. Voyons un exemple qui motive cette définition.

exempleExemple:

Convenons que la connaissance de la réalisation d'un évènement qui avait pour probabilité 1/2 fournit 1 bit d'information. Lançons maintenant n pièces de monnaie et prenons connaissance du résultat de l'expérience : nous acquérons n bits d'information. Or l'évènement en question avait pour probabilité 1/2n. Donc le nombre de bits d'information est ici:

equation   (32.5)

p est la probabilité de l'événement. Ce qui motive la définition!

Définitions:

D1. Nous définissons "l'information intrinsèque par paire" de deux événements x et y de probabilité conjointe p(x, y) (cf. chapitre de Probabilités) par:

equation   (32.6)

D2. Nous définissons de même "l'information conditionnelle" de x sachant y par (cf. chapitre de Probabilités):

equation   (32.7)

qui peut donc aussi s'écrire (ce n'est qu'une manière de noter différente que nous avons déjà présentée dans le chapitre de Probabilités):

equation   (32.8)

Il s'agit de la quantité d'information restant sur x après l'observation de y. La formule de Bayes (cf. chapitre de Probabilités) nous permet de remarquer immédiatement que si x et y sont indépendants:

equation   (32.9)

ce qui concorde avec le sens commun.

Nous souhaitons aussi mesurer la quantité d'information que la donnée d'une variable, par exemple y, apporte sur l'autre, x. C'est le cas en particulier lorsque nous identifions x au choix d'un signal appliqué à l'entrée d'un canal et y au signal correspondant observé en sa sortie. p(x) est alors la probabilité à fortiori que x soit émis et p(x / y) la probabilité à fortiori que x ait été émis, sachant que y a été reçu. 

Une mesure de cette quantité d'information, nommée "information mutuelle" est:

equation   (32.10)

il s'agit de la mesure logarithmique de l'accroissement de la probabilité de x (donc de la baisse de sa quantité d'information) dû à son conditionnement sur y. Si la donnée de y est équivalente à celle de x (cas d'un canal parfait), elle est égale à l'information intrinsèque h(x). Elle est nulle si, à l'inverse, x et y sont indépendants.

Nous avons bien évidemment:

equation   (32.11)

et de par les propriétés des logarithmes:

equation   (32.12)

cette dernière égalité justifiant le terme "mutuelle". Alors que les informations intrinsèques étaient positives, l'information mutuelle peut être négative. Nous verrons que sa moyenne, beaucoup plus importante dans la pratique, ne peut l'être.

Les événements individuels étant généralement moins importants que les moyennes, nous les considérerons par la suite comme provenant d'une source aléatoire, discrète, finie, stationnaire, et blanche (c.-à-d. de réalisations successives indépendantes). Les événements sont donc interprétés comme le choix d'un symbole dans l'alphabet de la source. Soit n la taille de cet alphabet, et equation ses symboles. La source est donc décrite par la variable aléatoire x, qui prend ses valeurs dans l'alphabet, avec des probabilités respectives equation, telles que:

equation   (32.13)

La quantité d'information moyenne de cette source est l'espérance de l'information intrinsèque de chaque symbole de l'alphabet de la source (cf. chapitre de Statistiques). Elle est appelée "entropie" (par la notation S(X)) de X et est donnée par la relation:

equation   (32.14)

appelée "formule de Shannon" et il s'agit bien d'une espérance car son expression générale pour une variable aléatoire discrète est comme nous l'avons vu dans le chapitre de Statistiques donnée par:

equation   (32.15)

avec dans le cas présent:

equation   (32.16)

Cette dernière écriture constitue cependant un abus de notation: en effet, l'espérance mathématique a un sens si h(x) est une fonction de x. Or h(x) ne dépend pas des valeurs de x, mais seulement des probabilités associées. Nous noterons parfois plus rigoureusement l'entropie d'une distribution:

equation   (32.17)

Les "entropies conjointes et conditionnelles" sont définies de manières similaires avec les notations idoines:

equation   (32.18)

et (nous adoptons cette fois-ci le symbole "|" et non plus le symbole "/" pour indiquer la relation conditionnelle):

equation   (32.19)

Il faut noter dans la dernière expression que l'espérance est effectuée dans l'espace produit, et que donc le coefficient est la probabilité conjointe.

"L'information mutuelle moyenne", appelée par abus de langage "information mutuelle" se définit elle aussi de manière directe:

equation   (32.20)

Remarque: Il est à noter que la définition de la quantité d'information, par une mesure logarithmique peut paraître arbitraire, quoique raisonnable, compte tenu des propriétés attendues d'une telle mesure. Shannon, et plus tard Khintchine ont montré que compte tenues de certaines propriétés posées en axiomes, la fonction logarithmique est la seule à convenir.

exempleExemple:

E1. Soit une variable aléatoire binaire, valant 1 avec une probabilité p (et donc 0 avec une probabilité 1-p). Son entropie vaut:

equation   (32.21)

avec equation et avec un logarithme en base 2 tel que pour un événement à deux états équiprobables, l'entropie d'obtention d'un des deux états soit égale à l'unité. Ceci dit, il vient naturellement que equation.

Elle est représentée à la figure ci-dessous, en "Shannon" (unité correspondant à l'utilisation du logarithme à base 2). Nous remarquerons sa symétrie par rapport à ½, valeur pour laquelle elle atteint son maximum, égal à 1.

equation
Figure: 32.1 - Entropie d'une variable binaire

E2. Dans le domaine de l'astronomie où il est souvent nécessaire de compresser les images on chercher à calculer le "niveau de redondance des données" afin de choisir un taux de compression éventuelleemnt applicable. Pour cela on calcul l'information contenue dans une image en utilisant son entropie. Ainsi, une image dont les pixels sont codés sur N bits, soit 2N valeurs possibles et il y a une proportion (probabilité) de pi pixels pouvant prendre chaque couleur. L'entropie de l'image est alors donnée par (avec la notation d'usage du domaine de l'imagerie numérique):

equation   (32.22)

qui s'exprime donc en bits par pixels et représente le nombre de bits qui sont nécessaire pour coder l'image sans perte d'informations.

Il convient maintenant de faire la liaison entre la théorie statistique de l'information et la mécanique statistique:

LOI DE BOLTZMANN

Nous allons d'abord démontrer par l'intermédiaire d'un cas simple, que pour tout système, l'état le plus probable est l'état d'équilibre !

Considérons un système isolé (un système est dit "isolé" lorsqu'il est imperméable à tout flux - chaleur (adiabatique), matière, champs, ...) peuplé de N particules discernables. Ce système est partagé en deux compartiments (ou niveaux) identiques et séparés d'une paroi imperméable. Chaque compartiment est supposé contenir un nombre equation de particules.

Pour une configuration donnée du système, nous parlons de "macro-état" dans le sens où il est possible de par la quantité de particules de mesurer une grandeur dite macroscopique telle que l'énergie, la masse, la pression, etc.

Si nous fixons ce système particulier, il est bien sûr possible pour un nombre N de particules de concevoir un nombre donné de macro-états. Tel que:

- 1 particule: 2 macro-états (2 configurations possibles soit 1 configuration par macro-état)

- 2 particules: 3 macro-états (4 configurations possibles par permutations des compartiments)

- 3 particules: 4 macro-états (8 configurations possibles par permutations des compartiments)

- 4 particules: 5 macro-états (16 configurations possibles par permutations des compartiments)

etc.

Définition: Nous appelons "micro-état", une configuration de permutations du macro-état.

Remarque: Parfois au lieu de "micro-état" nous trouvons dans la littérature "probabilité thermodynamique" ou "complexions".

Déterminons maintenant à l'aide de l'analyse combinatoire (cf. chapitre de Probabilités) le nombre de micro-états equation possibles pour chaque macro-état. Par analogie, ceci correspond à s'imaginer que le système est une tige sur laquelle sont enfilées des boules (particules) et que la tige est séparée par une frontière imaginaire en un de ses points (boulier chinois). Pour une telle situation, nous avons:

equation   (32.23)

Ceci nous donne tous les arrangements possibles des "particules gauches" avec les "particules droites" (de la frontière) pour un macro-état donné (le nombre de manières dont les particules peuvent se partager entre les deux compartiments). Mais nous avons aussi dans ce cas particulier:

equation   (32.24)

Or cela correspond à la combinatoire tel que:

equation   (32.25)

et donc:

equation   (32.26)

Nous avons finalement pour tous les macro-états d'un système de N particules, un total de:

equation   (32.27)

micro-états (configurations) possibles. Or, nous avons bien vu dans l'exemple initial que:

equation   (32.28)

Ainsi, la probabilité d'existence d'un micro-état donné est de equation et elle est équiprobable !!

Nous pouvons maintenant énoncer le premier postulat de la mécanique statistique (postulat de Gibbs): tous les micro-états discernables et accessibles d'un système isolé sont équiprobables.

Revenons-en maintenant à notre question initiale sur l'équilibre:

La notion d'équilibre associée à un macro-état nous est fournie par la thermodynamique classique. Nous y voyons qu'un système est dit à l'équilibre lorsque son état est caractérisé par l'indépendance temporelle des grandeurs macroscopiques (masse, énergie, pression, ...) et de la constance des potentiels thermodynamiques (énergie interne, enthalpie, énergie de Gibbs, ...).

Pour savoir pourquoi l'équilibre est l'état le plus probable, il nous suffit de chercher quel est le couple equation qui maximise:

equation   (32.29)

puisque tous les micro-états sont de toute façon équiprobables. Il est facile de contrôler que ce maximum est donné pour:

equation   (32.30)

Nous pouvons dès lors énoncer le deuxième postulat de la mécanique statistique: l'état d'équilibre est l'état qui correspond au plus grand nombre de configurations (micro-états) et est l'état le plus probable!!

Ou en d'autres termes: Un système atteint l'équilibre lorsque son entropie devient maximale et l'entropie ne peut que croître (postulat fondamental en physique!)!!

Remarque: Certains physiciens ont postulé que ce postulat fondamental d'augmentation de l'entropie est un principe encore plus fort que le modèle de sélection naturelle de Darwin. Effectivement, si nous imaginons des molécules dispersées dans un océan primordial, de par le principe d'entropie, elles vont s'auto-organiser naturellement pour maximiser la dissipation de chaleur de l'océan. Ce qui est puissant c'est que principe donne une base physique au phénomène de sélection naturelle de Darwin et aide à comprendre certaines tendances évolutionnaires que la simple sélection naturelle n'est pas apte à expliquer à ce jour: la raison pour laquelle certains organismes présentent un caractéristique X plutôt que Y n'est pas due au fait que X est mieux adapté que Y mais parce que les contraintes physiques environnantes font que X est plus apte à évoluer vers une entropie maximale que Y.

Soit maintenant à considérer le système suivant:

equation
Figure: 32.2 - Exemple d'évolution de l'entropie d'un système

La fonction de distribution P(x) qui décrit la position des particules selon l'axe x à l'équilibre equation va évoluer vers une autre fonction de distribution correspondant au nouvel équilibre equation. À l'équilibre P(x) est constante. Mais entre les deux équilibres, elle évolue, et devient de plus en plus large. Nous perdons donc de l'information sur la position des particules. Nous pouvons donc ré-énoncer le deuxième postulat en disant qu'un système hors d'équilibre évolue toujours dans le sens d'une perte d'informations (d'un élargissement de la fonction de distribution caractéristique).

Parallèlement, le deuxième principe de la thermodynamique classique nous indique que toute évolution naturelle doit nécessairement correspondre à un accroissement d'entropie equation. Il doit donc exister un lien étroit entre l'information que nous possédons sur l'état de chacune des particules et l'entropie du système.

Le cas que nous venons de décrire montre clairement que les paramètres ou concepts: nombre de configurations, désordre, équilibre, quantité d'information et entropie d'un système isolé servent à représenter l'état d'un système. Ces paramètres jouent le même rôle. Des relations mathématiques doivent donc les relier les uns aux autres.

Rappelons que nous avons démontré que l'entropie statistique infométrique d'un système est donnée par:

equation   (32.31)

Si nous appliquons cette relation au cas d'un système physique en équilibre pour lequel nous souhaitons calculer l'entropie, nous avons démontré:

equation   (32.32)

Il nous faut encore savoir à quoi correspond cette probabilité constante. Nous avons démontré précédemment qu'à l'équilibre, nous avions:

equation   (32.33)

qui est donc le nombre de micro-états à l'équilibre. Ainsi, la probabilité de tirer un micro-état parmi tous est de:

equation   (32.34)

que nous notons simplement (un peu dangereusement...) par tradition :

equation   (32.35)

Nous avons ainsi:

equation   (32.36)

Comme les probabilités des micro-états sont équiprobables et que nous sommons sur l'ensemble de ces derniers, il vient:

equation   (32.37)

et donc (sans oublier que dans ce cas particulier les probabilités ont toutes la même valeur!):

equation   (32.38)

Puisque l'équilibre est lié au désordre maximum, et que le désordre est lié à l'information manquante, il paraît raisonnable de relier l'entropie statistique de l'information à l'entropie statistique thermodynamique en physique. Pour cela, il faut que la constante nous permette d'obtenir les bonnes unités et il vient naturellement de choisir cette constante telle qu'elle soit égale à la constante de Boltzmann k qui a les mêmes unités que l'entropie thermodynamique. Ainsi:

equation   (32.39)

Il nous faut encore choisir la base du logarithme. L'expérience montre qu'il faut choisir le logarithme népérien qui permet de retrouver des résultats de la mécanique classique après développements.

Ainsi, nous obtenons finalement la "loi de Boltzmann":

equation   (32.40)

qui nous donne l'entropie thermodynamique d'un système à l'équilibre!

De par les propriétés mathématiques de l'espérance (cf. chapitre de Statistiques), en particulier la multiplication par une constante, nous avons pour un ensemble N de sous-systèmes:

equation   (32.41)

puisque comme nous l'avons signalé plus haut lors de notre présentation de la formule de Shannon, l'entropie S est une espérance (sans oublier que dans ce cas particulier les probabilités ont toutes la même valeur!).

DISTRIBUTIONS STATISTIQUES PHYSIQUES

Nous distinguerons quatre différentes statistiques qui proviennent ou non d'effets quantiques et qui conduiront à quatre distributions distinctes connues. Ce sont les distributions de Maxwell, Maxwell-Boltzmann, Fermi-Dirac et de Bose-Einstein. Elles trouvent de nombreuses applications en physique comme le rayonnement du corps noir qui sera démontré dans le chapitre de Thermodynamique.

DISTRIBUTION DE MAXWELL (distribution des vitesses)

Pour un gaz en état d'équilibre, posons-nous la question suivante: Quelle est la probabilité qu'une molécule ait ses composantes de vitesse comprises entre equation et equation , equation et equation , equation et equation dans un repère cartésien habituel ?

Cette probabilité equation dépend de equation (c'est-à-dire: equation) et de equation. Elle ne dépend pas de la position de la molécule puisque le gaz est supposé à l'équilibre par rapport à son centre de masse.

Nous postulons dans un premier temps que equation est proportionnelle à chacun des intervalles equation tel que:

equation   (32.42)

et qu'il n'y a pas de directions privilégiées. Nous pouvons faire une rotation circulaire des axes cartésiens, la probabilité sera inchangée (isotropie de l'espace).

L'isotropie amène que la fonction equation ne dépend pas du vecteur equation, au mieux elle dépend de la norme de cette vitesse, tel que:

equation   (32.43)

Soit equation (noté aussi souvent equation en fonction du contexte) la probabilité pour une molécule d'avoir sa composante suivant l'axe Ox comprise entre equation et equation alors:

equation   (32.44)

de même:

equation   (32.45)

L'isotropie de l'espace impose:

equation   (32.46)

La loi des probabilités composées implique:

equation   (32.47)

Déterminer les fonctions f et equation relève de la méthodologie mathématique suivante:

equation   (32.48)

Puisque:

equation   (32.49)

Ce qui nous donne finalement:

equation   (32.50)

Le membre de gauche de la dernière égalité dépend uniquement de v , celui de droite uniquement de equation. Le résultat ne peut être qu'une constante que nous noterons equation . Il suit que: 

equation   (32.51)

En intégrant:

equation   (32.52)

Donc:

equation   (32.53)

et posons equation. Il vient donc:

equation   (32.54)

Donc identique:

equation   (32.55)

La loi des probabilités composées impliquant:

equation   (32.56)

Nous avons finalement:

equation   (32.57)

Remarquons que equation est nécessairement négatif sinon la probabilité pour une molécule d'avoir une composante de vitesse infinie serait infinie ce qui voudrait dire que toutes les molécules seraient à vitesse infinie et que l'énergie serait infinie !!!

Nous posons:

equation avec equation   (32.58)

Finalement, il vient que:

equation   (32.59)

Il nous reste à normaliser A. La probabilité pour une molécule d'avoir une composante de vitesse comprise entre equation ou une intensité de vitesse comprise entre equation est égale à equation (100% de chances). Ainsi en utilisant exactement la même méthode calcul que celle vue dans le chapitre de Statistiques pour la loi Normale, nous avons:

equation   (32.60)

Nous avons jusqu'ici parlé en terme de probabilités. Un langage équivalent consiste à chercher, dans une enceinte contenant N molécules, le nombre dN de molécules ayant certaines caractéristiques, à savoir par exemple, le nombre de molécules equationayant une composante de vitesse comprise entre equationet equation. Ce nombre étant bien évidemment égal dans une dimension à: 

equation   (32.61)

Plus généralement:

equation   (32.62)

Pour obtenir dP nous nous plaçons dans l'espace des vitesses c'est-à-dire un repère cartésien de coordonnées equation. Les composantes equation ne sont pas indépendantes puisque liées par la relation:

equation   (32.63)

L'extrémité des vecteurs vitesse equation ayant une intensité de vitesse v, c'est-à-dire de composantes de vitesse liées par la relation ci-dessus, se trouve dans l'espace des vitesses sur la sphère de rayon v. Il en sera de même pour l'extrémité des vecteurs vitesse ayant une intensité equation.

Dans l'espace des vitesses, nous délimitons une portion d'espace comprise entre la sphère de rayon v et la sphère de rayon equation, de volume égal à equation.

La probabilité equation est proportionnelle à equation c'est-à-dire au volume élémentaire dans l'espace des vitesses. Pour obtenir dP(v), nous devons intégrer equation à tous les vecteurs vitesses possibles c'est à dire ayant leur extrémité entre les deux sphères. Cette intégration est particulièrement simple puisque l'intensité v de la vitesse dans cet espace (inter-volume) est constante. Nous obtenons donc:

equation   (32.64)

et ainsi, dans une enceinte contenant N molécules, le nombre de molécules dN(v) ayant un module de vitesse compris entre v et equation est:

equation   (32.65)

Rappelons maintenant que conformément à ce que nous avons longuement étudié dans le chapitre de Statistiques, la valeur moyenne equation d'une grandeur G est le produit de G pondérée par la probabilité d'obtenir G intégré à toutes les valeurs possibles de cette grandeur telle qu'en une dimension nous avons (selon x):

equation   (32.66)

où l'intégrale a été calculée en faisant un changement de variableequation et où nous avons ensuite utilisé une intégration par parties.

Nous avons respectivement de manière générale:

equation   (32.67)

où l'intégrale a été calculée de la même manière.

Donc:

equation ou equation   (32.68)

La thermodynamique, ou la mécanique des fluides (voir théorème du Viriel) nous donne pour un gaz parfait monoatomique (cf. chapitres de Mécanique Des Milieux Continus et de Thermodynamique), de capacité calorifique et volume constant:

equation   (32.69)

Si nous formulons l'hypothèse que la partie de l'énergie liée à la température est due à l'agitation cinétique des molécules, nous pouvons écrire:

equation   (32.70)

Nous définissons alors la vitesse thermique moyenne par:

equation   (32.71)

Une application pour l'électron dans le cas des semi-conducteurs (où nous approximons certaines relations par une distribution de Maxwell-Boltzmann) donne une vitesse thermique moyenne à température ambiante de 120'000 [m/s].

Mais pour en revenir à notre distribution.... Nous avons donc:

equation   (32.72)

Ainsi, nous avons finalement:

equation   (32.73)

qui est donc la distribution des vitesses dans un gaz monoatomique dont voici un exemple de tracé (les unités des axes en ordonnées sont arbitraires):

equation
Figure: 32.3 - Distribution des vitesses dans un gaz monoatomique

La relation précédente donne donc la proportion des molécules de gaz ayant à un instant t donné une vitesse v. Nous voyons que la densité de probabilité s'étend jusqu'à l'infini et nous trouvons une probabilité non nulle (tendant vers zéro) que la particule ait une vitesse extrêmement élevée. En fait, si nous avons un système de particules identiques à la même température T, alors nous en retrouverons un certain nombre avec ces vitesses très élevées. Au coeur des étoiles ce sont ces rares particules très rapides qui sont capables de vaincre la répulsion coulombienne entre les noyaux et de aire qu'ils s'approchent l'un et l'autre pour initier le mécanisme de fusion nucléaire qui est la source d'énergie des étoiles.

Nous avons alors pour une unique direction spatiale et selon une notation courante dans la littérature anglo-saxonne (en adoptant les développements précédents on tombe relativement facilement sur ce résultat) la fonction de distribution suivante:

equation   (32.74)

et pour les trois dimensions spatiales la notation suivante aussi courante dans la littérature anglo-saxonne (certains termes sont simplement mis sous la racine):

equation   (32.75)

Cette fonction de distribution permet donc de définir la vitesse la plus probable (la valeur "modale" comme l'on dit en statistiques) notée parfois equation, qui correspond au maximum de la courbe f(v), soit là où la dérivée première est nulle. Ainsi, pour une unique dimension spatiale nous avons en adoptant la notation anglo-saxonne pour la proportion de molécules de gaz:

equation   (32.76)

Dès lors (vous remarquerez que le résultat aurait été le même si nous avions pris toutes les dimensions spatiales... ce qui est cohérent!):

equation   (32.77)

d'où la vitesse la plus probable (attention! ce n'est pas la vitesse maximale puisque nous savons que la distribution s'étend jusqu'à la vitesse infinie):

equation   (32.78)

Pour la vitesse moyenne (l'espérance) et en utilisant directement toutes les dimensions spatiales nous avons:

equation   (32.79)

Nous avons donc une intégrale du type:

equation   (32.80)

Le mieux est de décomposer equation en equation et on intègre par parties. Nous avons alors:

equation   (32.81)

La dernière intégrale est facilement calculable. C'est la même que dans le chapitre de Statistiques pour la loi Normale. Donc:

equation   (32.82)

Il vient finalement:

equation   (32.83)

et là par contre le résultat est dépendant du nombre de dimensions spatiales que nous prenons!

DISTRIBUTION DE MAXWELL-BOLTZMANN

En physique quantique corpusculaire, nous apprenons que l'énergie d'une particule est quantifiée, c'est à dire que les valeurs possibles pour l'énergie forment un spectre discret. Même si, dans un certain nombre de situations courantes, pour une particule et encore plus pour un système constitué d'un grand nombre de particules, les niveaux d'énergie sont si serrés que nous pouvons traiter, sur le plan mathématique, ce spectre comme continu (approximation du continuum), il n'empêche qu'en toute rigueur ils sont quantifiés. Cette approche quantifiée des distributions physiques au niveau corpusculaire de la matière est souvent désignée sous le nom de "statistique quantique".

Une particule, ayant un niveau d'énergieequation, peut être dans différents sous-états.

Nous savons (nous n'avons pas utilisé l'équation de Schrödinger dans le chapitre de Physique Quantique Corpusculaire pour le montrer strictement) que, pour décrire un atome, nous introduisons quatre nombres quantiques, à savoir:

- le nombre quantique principal qui quantifie l'énergie

- le nombre quantique secondaire qui quantifie le moment cinétique

- le nombre quantique magnétique qui quantifie le moment magnétique

- le spin qui quantifie la rotation propre des électrons de l'atome

Ainsi pour une même énergie (pour une valeur particulière du nombre quantique principal), un atome ou un électron peuvent posséder différentes valeurs des nombres quantiques secondaire, magnétique ou de spin.

Pour qualifier la possibilité de sous-états correspondant à une même énergie, nous employons l'expression "dégénérescence" et nous traduisons par la variable equation le nombre de dégénérescences correspondant à un même niveau d'énergieequation.

Nous allons considérer un système composé de N particules qui se placent sur K différents niveaux d'énergie equation. Nous trouvons equation particules sur le niveau d'énergie equation. Nous avons alors toujours les relations suivantes pour l'énergie totale (que nous notons par la même lettre que celle utilisée en thermodynamique) et pour le nombre de particules:

equation   (32.84)

Nous supposerons (c'est important) ces quantités constantes et que le système est entièrement déterminé par la distribution equation des particules sur les K différents niveaux d'énergie.

Il existe un grand nombre equation de configurations microscopiques possibles qui sont compatibles avec la distribution equation. Il y en a (voir les permutations avec répétition dans le chapitre de Probabilités):

equation   (32.85)

Mais nous avons négligé la dégénérescence possible des niveaux i. S'il existe equation sous-niveaux dont l'énergie est equation, nous avons alors:

equation   (32.86)

ce qui peut se vérifier avec la figure ci-dessous:

equation
Figure: 32.4 - États dans la distribution de Maxwell-Boltzmann

Remarque: equationest donc la dégénérescence de l'état d'énergie equation, à savoir le nombre d'états possédant cette énergie.

En prenant le logarithme, il vient:

equation   (32.87)

et en utilisant la formule de Stirling (cf. chapitre de Méthodes Numériques):

equation   (32.88)

en se rappelant que celle-ci est une approximation grossière pour les plus petites valeurs de n mais devient une approximation acceptable pour n supérieur à 1000.

Nous avons:

equation   (32.89)

Nous recherchons maintenant la distribution la plus probable, c'est-à-dire celle qui maximise equation (et donc qui maximise implicitement l'entropie qui ne peut selon l'expérience qu'augmenter pour un système isolé). Pour trouver l'extremum, nous allons différencier cette expression tel que :

equation   (32.90)

donc tous les autres paramètres autres que equation sont fixés.

Or, comme:

equation   (32.91)

equation sont des constantes qui permettent de s'assurer de la cohérence de l'analyse dimensionnelle (des unités quoi...).

Il est donc équivalent et nécessaire pour prendre en compte également ces paramètres intrinsèques (le fait d'ajouter ainsi de manière astucieuse des termes nuls est nommé "méthode des multiplicateurs de Lagrange") d'écrire:

equation   (32.92)

sous la forme plus complète suivante:

equation   (32.93)

Donc après réarrangement:

equation   (32.94)

ce qui donne après une première simplification (élimination de la dérivée des constantes):

equation   (32.95)

Ce qui nous amène à écrire (puisque tous les termes de la somme indexés sur une valeur i différente de celle de la dérivée partielle sont nuls):

equation   (32.96)

Ce qui nous donne finalement:

equation   (32.97)

qui devra donc aussi être nul. Ainsi, nous avons astucieusement fait apparaître un résultat qui n'en est pas moins très puissant. En imposant de maximiser l'entropie nous avons fait apparaître deux termes (incluant chacun une constante qu'il faudra déterminer plus tard!) et dont la somme doit être nulle pour assurer la validité expérimentale du modèle théorique lorsque l'entropie du système isolé est maximale.

Mais cette dernière relation équivaut aussi à rechercher (ce qui va nous être très utile plus loin!):

equation   (32.98)

Effectivement voyons cela en utilisant à nouveau la méthode astucieuse des multiplicateurs de Lagrange (ajout de termes nuls en supposant les niveaux d'énergie equation et le nombre de dégénérescences equation fixes) et en se rappelant (cf. chapitre de Calcul Différentiel Et Intégral) que:

equation   (32.99)

Nous avons alors:

equation   (32.100)

d'où:

equation   (32.101)

Rappelons que nous avons pour l'entropie de ce système:

equation   (32.102)

et donc:

equation   (32.103)

et comme:

equation   (32.104)

Nous avons donc:

equation   (32.105)

La thermodynamique nous conduit à (cf. chapitre de Thermodynamique):

equation   (32.106)

où nous voyons donc apparaître le potentiel chimique qui a une influence lorsque le nombre de particules considérées varie.

Si toutes les particules (ou groupes de particules) sont identiques equation donc:

equation   (32.107)

Ce qui finalement conduit à:

equation   (32.108)

et nous amène à identifier:

equation   (32.109)

et donc:

equation et equation   (32.110)

Nous pouvons donc réécrire la relation suivante:

equation

sous la forme finale et traditionnelle de la "fonction de Maxwell-Boltzmann":

equation   (32.111)

Que nous retrouvons plus fréquemment dans la littérature sous la forme suivante:

equation   (32.112)

et particulièrement sous cette forme:

equation   (32.113)

Nous retrouverons cette relation dans le domaine de la théorie des semi-conducteurs (cf. chapitre d'Électrocinétique) ainsi que dans notre étude des plasmas (cf. chapitre de Mécanique Des Milieux Continus).

Comme equation, nous avons:

equation   (32.114)

Nous pouvons alors calculer equation et nous obtenons ainsi la formulation discrète de la "statistique de Maxwell-Boltzmann":

equation   (32.115)

Cette relation donne donc le rapport (ou la "proportion" ou encore une "probabilité") entre le nombre de particules qui par hypothèse n'interagissent pas entre elles (sinon le modèle est trop complexe) dans un état d'énergie donné equation et le nombre de particules qui n'interagissent pas entre elles et pouvant prendre les différents états d'énergie discrets equation . Ainsi, connaissant N, il est possible à l'aide de cette relation de connaître la proportion de particules dans un état d'énergie particulier.

Évidemment, s'il n'y a qu'un sous-niveau par niveau énergétique, cette relation se réduit à (c'est par ailleurs sous cette forme qu'on la retrouve le plus souvent dans la littérature):

equation   (32.116)

Remarque: La statistique de Maxwell-Boltzmann s'applique en l'absence d'interaction entre particules et est donc valable pour un gaz parfait mais ne s'applique pas, par exemple, à un liquide. De plus, elle s'applique uniquement aux hautes températures lorsque les effets quantiques sont négligeables. À basse température nous utilisons la statistique de Bose-Einstein pour les bosons (en référence au nom de Bose...) et la statistique de Fermi-Dirac pour les fermions (en référence au nom de Fermi) que nous étudierons plus loin.

Nous appelons le terme au dénominateur, la "fonction de partition canonique". Elle est le plus souvent notée equation tel que:

equation   (32.117)

Les ensembles microcanonique, canonique et grand canonique correspondent à des ensembles de systèmes soumis à des contraintes differentes qui sont respectivement :

- Microcanonique: énergie fixée, nombre de particules fixé, volume fixé

- Canonique: énergie moyenne fixée = température imposée, nombre de particules fixé, volume fixé

- Grand canonique: énergie moyenne fixée = température imposée, nombre de particules moyen fixé = potentiel chimique imposé, volume fixé)

Ceci est vrai en quantique comme en classique.

DISTRIBUTION DE BOLTZMANN

Voyons maintenant une première application intéressante de la fonction de distribution de Maxwell-Boltzmann.

Considérons le cas intéressant où:

- Le  volume ainsi que le nombre de particules sont fixés (système microcanonique)

- Le fait que le nombre de particules soit fixé, le potentiel chimique est nul

- Une température suffisamment élevée pour que les états d'énergie soient en quantité infinie

Il va relativement de soi que si les états d'énergie sont en quantité infinie, le facteur de dégénérescence equation sera égal à l'unité (car il n'y a pas de place pour des dégénérescences autre que le niveau lui-même).

Nous avons alors la distribution de Maxwell-Boltzmann qui devient sous ces conditions la "distribution de Boltzmann":

equation   (32.118)

que nous retrouvons plus fréquemment sous la forme suivante:

equation   (32.119) .

Si nous considérons que dans un gaz globalement neutre, l'énergie est définie uniquement par l'énergie cinétique (cas du gaz parfait). Donc avec le passage au continu, nous avons:

equation   (32.120)

Dès lors, nous pouvons intégrer la fonction de Boltzmann ci-dessus sur toutes les vitesses et nous devrions avoir:

equation   (32.121)

Avec la fonction de partition microcanonique:

equation   (32.122)

pour que la condition de normalisation soit satisfaite (et puis de toute façon cela correspond aux développements effectués plus haut!).

Nous reconnaissons ici une intégrale qui nous est familière et démontrée dans le chapitre de Statistiques lors de notre étude de la loi Normale. Nous avons alors:

equation   (32.123)

Dès lors, la fonction de densité de probabilité s'écrit:

equation   (32.124)

Maintenant, puisque la vitesse est traitée comme une variable aléatoire, intéressons-nous au calcul de la valeur moyenne du carré de la vitesse qui se note traditionnellement de la manière suivante (la notation n'a aucun rapport avec les ket-bra de la physique quantique ou des produits scalaires fonctionnels!):

equation   (32.125)

En statistiques, nous noterions cela:

equation   (32.126)

Concentrons-nous sur:

equation   (32.127)

Or, si nous posons:

equation   (32.128)

Nous avons alors:

equation   (32.129)

Soit avec un changement de variable:

equation   (32.130)

et il s'agit exactement de l'intégrale de la loi Normale Centrée démontrée dans le chapitre de Statistique comme valant:

equation   (32.131)

Dès lors:

equation   (32.132)

et au final:

equation   (32.133)

pour une particule pour une dimension spatiale. Nous retrouvons au fait le même résultat qu'avec la distribution de Maxwell des vitesses démontrée, avec une démarche plus rigoureuse,  mais nous arrivons aux mêmes conclusions.

DISTRIBUTION DE FERMI-DIRAC

Le principe d'indiscernabilité peut avoir des conséquences très importantes sur la statistique. Nous distinguons deux types de particules indiscernables: les bosons (comme le photon) et les fermions (comme l'électron).

Rappels:

R1. Les premiers correspondent à des particules dont la fonction d'onde représentative est toujours symétrique alors que celle des fermions est antisymétrique.

R2. Le principe d'exclusion de Pauli impose que 2 fermions ne peuvent pas se trouver dans le même état quantique. Les bosons, eux le peuvent !

Leurs propriétés respectives ont pour conséquence importante que l'énergie minimale d'un ensemble de N bosons est égale à N fois l'énergie minimale de chaque boson. Alors que pour un ensemble de fermions, l'énergie minimale est égale à la somme des N énergies les plus faibles.

Ces deux types de particules entraînent deux types de statistiques: la statistique de Fermi-Dirac pour les fermions (que nous allons démontrer en premier) et la statistique de Bose-Einstein pour les bosons (qui suivra).

Il n'existe donc qu'une seule manière de répartir N fermions sur les états d'énergies accessibles (au lieu des N! pour les particules discernables). Il ne peut pas y avoir plus de particules equation dans un niveau d'énergie equation qu'il existe de dégénérescences equation. Donc:

equation   (32.134)

Le nombre de combinaisons possibles pour un niveau equation, dégénéré equation fois et comportant equation particules est donc la combinatoire equation. Le nombre total de configurations est donc:

equation   (32.135)

Ce qui peut se vérifier avec la figure ci-dessous:

equation
Figure: 32.5 - États dans la distribution de Fermi-Dirac

La statistique est donc bien différente du cas classique de Maxwell-Boltzmann. En prenant le logarithme du nombre de micro-états et en faisant usage de l'approximation par la formule de Stirling comme plus haut, il vient:

equation   (32.136)

Que nous pouvons déjà simplifier une première fois:

equation   (32.137)

et en différenciant cette expression pour trouver le maximum, nous obtenons:

equation   (32.138)

Terme à terme:

equation   (32.139)

Or, nous avons par conservation et par symétrie:

equation   (32.140)

Donc finalement:

equation   (32.141)

Pour respecter les contraintes sur l'énergie et le nombre de particules, nous utilisons encore une fois la méthode des multiplicateurs de Lagrange:

equationequation   (32.142)

Ce qui nous amène à la distribution de Fermi-Dirac:

equation   (32.143)

Les paramètres equation et equation jouent le même rôle que dans la distribution de Maxwell-Boltzmann. Nous avons ainsi:

equation et equation   (32.144)

Nous avons alors:

equation   (32.145)

Ainsi, en physique quantique, la statistique de Fermi-Dirac désigne le nombre de fermions indiscernables qui n'interagissent pas entre eux (sinon le modèle est trop complexe) sur les états d'énergie d'un système à l'équilibre thermodynamique dégénéré (donc le nombre de fermions occupant le niveau d'énergie donné!).

Pour les systèmes macroscopiques, les niveaux d'énergie sont si serrés (ou tellement nombreux) que nous pouvons considérer le spectre d'énergies comme continu (approximation du continuum).

Nous raisonnerons donc dans ce contexte de continuum, ce qui nous permet d'écrire en normant aux nombres de particules mises en jeu (tout ce que l'on demande à la fonction c'est de nous dire comment sont réparties les N particules):

equation   (32.146) 

ou:

equation   (32.147)

pour la fonction de Fermi-Dirac avec le tracé correspondant plus bas de la distribution.

Cette relation est très importante par exemple dans la théorie des semi-conducteurs (cf. chapitre d'Electrocinétique) qui est à la base de l'électronique des 20ème et 21ème siècles.

De manière numérique, nous pouvons simuler l'évolution de l'allure de la distribution (qui n'est pas une distribution dans le sens mathématique du terme) en fonction de l'énergie et de la température. Pour cela, nous supposons pour simplifier que la constante de Boltzmann vaut 1 et que le potentiel chimique mu vaut 2 (nous notons que celui-ci est en toute rigueur fonction de la température). Ainsi, nous pouvons écrire le petit programme suivant sous Matlab 5.0.0.473:

clear all;kb=1; % Constante de Boltzmann
mu=2; % Potentiel Chimique
T=0.001:0.1:1; % " Gradient " de température pour le programme
for j=1:length(T)
beta(j)=1/(kb*T(j));
epsilon=0.1:0.1:4; % L'énergie avec le pas
for i=1:length(epsilon)
Nf(i,j)=1/(exp(beta(j)*(epsilon(i)-mu))+1); % Nb(epsilon,beta) moyen de fermions au
end % niveau d'énergie epsilon
hold on %
plot(epsilon,Nf(:,j));
pause(0)
end

equation
Figure: 32.6 - Tracé avec Matlab 5.0.0.473 de la distribution de Fermi-Dirac

Au zéro absolu equation nous voyons que nous avons une marche. A cette température, les niveaux d'énergie dégénérés sont occupés à bloc en partant du niveau d'énergie le plus bas jusqu'à un certain niveau représentant la chute de la marche. Nous disons alors que le gaz de fermions est "complétement dégénéré".

La fonction de Fermi-Dirac, au zéro absolu, vaut donc 1 si E est inférieur à equation et 0 pour les valeurs supérieures (le système choisit son état d'énergie minimale où les N particules occupent les N états de plus basse énergie).

Évidemment, dans les hautes énergies d'excitation (ou hautes températures) la probabilité (rapport) d'occupation d'un état est très faible et donc il n'est pas important d'appliquer le principe de Pauli (la probabilité que deux électrons veuillent occuper le même niveau d'énergie est très faible). Pour ces raisons, ce régime limite entre le comportement quantique et classique est appelé parfois "régime classique" et la haute température correspondante à l'excitation énergétique est appelée "température de Fermi".

Le potentiel chimique est quant à lui par définition le dernier niveau énergétique occupé au zéro absolu (la fameuse marche d'escalier!). Comme nous le verrons dans le chapitre de Physique Quantique Ondulatoire, celui-ci est noté equation (et à l'opposé equation en chimie...) et nous l'appelons "niveau de Fermi" ou "énergie de Fermi". Nous voyons alors immédiatement que quelle que soit la température:

equation   (32.148)

la probabilité d'occupation par les électrons est donc de 1/2 dans ce niveau. La définition du niveau de Fermi peut alors être donnée par:

equation   (32.149)

La principale application aux solides de cette statistique est la modélisation des phénomènes de transport électronique (gaz d'électrons): théorie des métaux, des semi-conducteurs, population des niveaux d'énergie et propriétés de conduction (cf. chapitre d'Electrocinétique).

DISTRIBUTION DE BOSE-EINSTEIN

Les bosons sont d'autres particules quantiques qui peuvent indistinctement se placer sur tous les niveaux d'énergie. Le principe de Pauli ne s'y applique donc pas! Dans ce cas, le nombre d'objet à permuter est equation (les equation particules et les equation intervalles entre les niveaux). Parce que les particules sont indiscernables et les niveaux et sous niveaux permutables, il faut diviser par equation puis aussi par equation Le nombre de configurations sur un niveau equation, equation fois dégénéré qui contient equation particules indiscernables est ainsi égal à:

equation   (32.150)

Ce qui peut se vérifier avec la figure ci-dessous:

equation
Figure: 32.7 - États dans la distribution de Bose-Einstein

Son logarithme avec usage de la formule de Stirling et après simplification est donné par:

equation   (32.151)

Le maximum de equation correspond à annuler equation, soit:

equation   (32.152)

Pour respecter les contraintes sur l'énergie et le nombre de particules, nous utilisons encore une fois la méthode des multiplicateurs de Lagrange:

equation   (32.153)

et donc:

equation   (32.154)

qui est la distribution statistique de Bose-Einstein. Cette distribution diverge lorsque:

equation   (32.155)

C'est la "condensation de Bose-Einstein". Dans cet état, tous les bosons se retrouvent dans le même état.

Les paramètres equation et equation jouent le même rôle que dans la distribution de Maxwell-Boltzmann et Fermi-Dirac. Nous avons ainsi:

equation et equation   (32.156)

Le nombre (moyen) de bosons est alors donné par:

equation   (32.157)

à comparer avec le nombre (moyen) de fermions au même niveau d'énergie (fonction de Fermi-Dirac):

equation   (32.158)

Ainsi, en mécanique quantique, la statistique de Bose-Einstein désigne la distribution statistique de bosons indiscernables (tous similaires) et n'interagissant pas entre eux (sinon le modèle est trop complexe) sur les états d'énergie d'un système à l'équilibre thermodynamique.

Pour les systèmes macroscopiques, les niveaux d'énergie sont si serrés (ou tellement nombreux) que nous pouvons considérer le spectre d'énergies comme continu (approximation du continuum).

Nous raisonnerons donc dans ce contexte, ce qui nous permet d'écrire en normant aux nombres de particules mises en jeu (tout ce que l'on demande à la fonction c'est de nous dire comment sont réparties les N particules):

equation   (32.159)

pour la fonction de Bose-Einstein. Elle n'est donc définie que pour les énergies supérieures au potentiel chimique (sinon quoi elle est négative!).

De manière numérique, nous pouvons simuler l'évolution de l'allure de la distribution en fonction de l'énergie et de la température. Pour cela, nous supposons pour simplifier que la constante de Boltzmann vaut 1 et que le potentiel chimique mu=2 (nous notons que celui-ci est dans l'absolu fonction de la température). Ainsi, nous pouvons écrire le petit programme suivant sous Matlab 5.0.0.473:

clear all;kb=1; % Constante de Boltzmann
mu=2; % Potentiel Chimique
T=0.001:0.1:1; % " Gradient " de température pour le programme
for j=1:length(T)
beta(j)=1/(kb*T(j));
epsilon=0.1:0.1:4;
for i=1:length(epsilon)
Nf(i,j)=1/(exp(beta(j)*(epsilon(i)-mu))-1); % Nb(epsilon,beta) moyen de bosons au
end % niveau d'énergie epsilon
hold on %
plot(epsilon,Nf(:,j));
pause(0)
end

equation
Figure: 32.8 - Tracé avec Matlab 5.0.0.473 de la distribution de Bose-Einstein

À haute température, lorsque les effets quantiques ne se font plus sentir, la statistique de Bose-Einstein, comme la statistique de Fermi-Dirac qui régit les fermions, tend vers la statistique de Maxwell-Boltzmann:

equation
Figure: 32.9 - Exemple de tracé des trois distributions

Aux basses températures, cependant, les statistiques de Bose-Einstein et de Fermi-Dirac diffèrent entre elles. Nous nous plaçons, par exemple, à température nulle: dans la première, nous attendons alors que le niveau de plus basse énergie contienne tous les bosons, tandis que dans la seconde, les niveaux de plus basse énergie contiennent equation fermions.

Par ailleurs, à température nulle (-273.15 [°C]), la statistique de Bose-Einstein montre de manière évidente que toutes les particules doivent occuper le même état quantique: celui de plus basse énergie. Ce phénomène est observable à l'échelle macroscopique et constitue un "condensat de Bose-Einstein".

La statistique de Bose-Einstein est utile à la compréhension des phénomènes électromagnétiques ondulatoires car les photons sont des Bosons (rayonnement du corps noir, interaction matière/rayonnement). Elle est très largement utile à l'étude des phénomènes vibrationnels dans les solides (les phonons suivent la statistique de Bose-Einstein). Elle a aussi été utilisée pour expliquer les transitions de phase dans l'Hélium (phénomène à très basse température).

Remarques:

R1. La statistique de Bose-Einstein a été introduite par Satyendranath Bose en 1920 pour les photons et généralisée aux atomes par Albert Einstein en 1924.

R2. Un résultat mathématique appelé "théorème spin-statistique" relie le spin d'une particule et le type de statistique qu'elle suit. Il stipule que les particules de spin entier sont des bosons, alors que les particules de spin demi-entier sont des fermions. La démonstration de ce théorème ne se trouve pas encore sur le présent site Internet à ce jour.

Pour terminer, voici un résumé simplifié des choses qui peut éventuellement aider à une meilleure compréhension:

Particules

Statistiques

Particularités

Bosons
(photons, gluons…)

Statistique de Bose-Einstein

equation

Particules indiscernables qui n'interagissent pas.
Aucune contrainte sur le nombre de particules par état

Fermions
(électrons, protons, neutrinos…)

Statistique de Fermi-Dirac

equation

Particules indiscernables qui n'interagissent pas.
Le nombre de particules par état est égal à 0 ou 1

Classiques

Statistique de Maxwell-Boltzmann

equation

Particules discernables qui n'interagissent pas.
Aucune contrainte sur le nombre de particules par état

Tableau: 32.1 - Similitudes des différentes distributions quantiques

 

equation
Figure: 32.10 - Résumé des états dans les trois distributions

MOUVEMENT BROWNIEN

Le mouvement brownien est une description mathématique du mouvement aléatoire d'une petite impureté organique ou non immergée dans un fluide et qui n'est soumise à aucune autre interaction que des chocs avec les petites molécules du fluide environnant. Il en résulte un mouvement très irrégulier de la grosse particule, qui a été décrit pour la première fois en 1827 par le botaniste Robert Brown en observant des mouvements de particules à l'intérieur de grains de pollen:

equation
Figure: 32.11 -Exemple de mouvement Brownien (source: Wikipédia)

L'origine du mouvement dû aux molécules n'était pas du tout évidente au début du 19ème siècle car:

1. Il n'était pas encore communément admis que la matière était simplement discontinue et donc composée de molécules.

2. On ne comprenait pas même en admettant l'aspect moléculaire de la matière que quelques molécules soient capables de déplacer des impuretés plusieurs millions de fois plus grandes que celles des molécules du fluide.

3. Même si on admettait l'aspect moléculaire, on ne comprenait pas qu'une très grande quantité de chocs de milliards de molécules ne s'annulent pas entre eux et que l'impureté soit finalement immobile (on verra que cela est dû au fait que la matière n'est pas continue).

Le traitement mathématique du problème utilisant l'aspect moléculaire et statistique de la matière a été une affirmation pour les scientifiques partisans de l'aspect atomique de la matière et ouvrit encore une fois la porte au nouveau domaine de la mécanique statistique déjà un peu utilisée à l'époque par Maxwell dans le cadre des gaz.

Comme toujours il existe plusieurs modèles mathématiques et suivant la tradition du présent site Internet nous avons choisi la plus simple et... ce n'est pas celle d'Einstein mais celle de Langevin (effectuée deux ans après dans un souci de simplification).

Le point de départ est le théorème d'équipartition de l'énergie cinétique (cf. chapitre de Mécanique des Milieux Continus):

equation   (32.160)

soit pour une particule:

equation   (32.161)

avec pour rappel v qui est la vitesse moyenne! Si nous simplifions l'analyse à un seul axe de translation possible la relation devient (nous spécifions maintenant qu'il s'agit de la moyenne afin de ne pas nous mélanger les pinceaux avec la suite):

equation   (32.162)

En écrivant ceci nous stipulons donc qu'une particule en suspension dans un fluide en équilibre thermique possède, dans la direction x par exemple, une énergie cinétique moyenne égale à celle d'une molécule gazeuse de nature quelconque, dans une direction donnée, à la même température. Il s'agit donc à nouveau d'une identité forte entre les solutions diluées et les gaz parfaits.

Une particule comme celle que nous considérons, grande par rapport aux molécules du liquide, et se mouvant à la vitesse v par rapport à celui-ci subit comme nous l'avons pseudo-démontré dans le chapitre de Mécanique Des Milieux Continus (loi de Stokes) une résistance de:

equation   (32.163)

equation sera appelé "coefficient de friction" (correspondant donc à la viscosité) et où R est le rayon de la sphère.

Maintenant, écrivons selon l'équation de la dynamique de Newton (on ne spécifie plus que la vitesse est selon x dans la notation qui suit):

equation   (32.164)

La force complémentaire equation, introduite par Langevin, est aléatoire (stochastique). On sait a priori peu de choses d'elle, si ce n'est qu'elle semble a priori indifféremment positive ou négative, et que sa grandeur est telle qu'elle maintient l'agitation de la particule, qui, sans elle, finirait par s'arrêter sous l'effet de la résistance visqueuse.

L'équation précédente multipliée par x, peut s'écrire encore:

equation   (32.165)

Elle est alors appelée "équation de Langevin" ou "équation stochastique de Langevin".

Or, rappelons que (cf. chapitre de Calcul Différentiel Et Intégral):

equation   (32.166)

d'où:

equation   (32.167)

En établissant cette dernière relation, nous avons aussi montré que:

equation   (32.168)

Nous pouvons alors écrire:

equation   (32.169)

et aussi:

equation   (32.170)

Si nous prenons la moyenne (nous changeons de notation pour la moyenne car la barre n'est pas très adaptée esthétiquement parlant lorsqu'il y a des puissances):

equation   (32.171)

Nous posons maintenant que:

equation   (32.172)

en d'autres termes nous pouvons voir cela comme le travail moyen de la force aléatoire qui est nul.

Il reste alors:

equation   (32.173)

Posons:

equation   (32.174)

Nous avons alors:

equation   (32.175)

Et comme:

equation   (32.176)

Donc:

equation   (32.177)

Soit autrement écrit:

equation   (32.178)

Il s'agit donc d'une équation différentielle à coefficients constants d'ordre 1. Nous avons démontré dans le chapitre de Calcul Différentiel Et Intégral que la solution homogène était:

equation   (32.179)

où la valeur de C nous importe peu car ce terme va de toute façon disparaître dans les développements qui vont suivre. La solution particulière peut être déterminée simplement par la contrainte au temps zéro:

equation   (32.180)

Soit après dérivation et avoir posé equation donne:

equation   (32.181)

Une solution triviale simple est alors:

equation   (32.182)

Nous avons alors:

equation   (32.183)

Or après très peu de temps le terme en exponentielle devient quasiment nul. Nous avons donc en régiment permanent:

equation   (32.184)

Soit:

equation   (32.185)

D est appelé "coefficient de diffusion" (comme en thermodynamique). Nous remarquons dès lors que la position moyenne de la distance x parcourue est in extenso proportionnelle à la racine carrée du temps. Einstein avait appliqué un exemple numérique avec des particules en suspensions d'un rayon d'un millième de millimètre avec une eau à 290 [K] et trouva ainsi un déplacement moyen de six millièmes de millimètre en une minute.

La relation (où il convient de ne pas confondre le R du rayon de la particule en suspensions au dénominateur avec le R de la constante des gaz parfaits au numérateur):

equation   (32.186)

est parfois appelée "relation de Sutherland-Einstein" (car William Sutherland l'a découverte en Australie pratiquement au moment où Einstein écrivait cette même relation dans sa thèse) et que l'on retrouve aussi fréquemment sous la forme suivante (où k est pour rappel la constante de Boltzmann):

equation   (32.187)

Einstein avait ainsi trouvé une relation qui offrait la possibilité de calculer le rayon R des atomes avec un thermomètre, un microscope et un chronomètre pour seuls instruments. Le physicien Jean Perrin reçut le prix Nobel pour la vérification expérimentale de ce résultat.

Le lecteur remarquera, que si nous avions faire les mêmes développements que précédemment, mais en divisant à gauche et à droite l'équation différentielle:

equation   (32.188)

par m nous aurions eu comme résultat (considéré à juste titre comme plus général):

equation   (32.189)

La méthode de Langevin redonne le même résultat que le premier modèle proposé par Einstein deux ans plus tôt et que le deuxième modèle deux ans plus tard.

On peut se demander jusqu'à quel point la relation de Sutherland-Einstein prouve l'existence de molécules. Autrement dit, que serait la limite du coefficient de diffusion D si la nature était continue, c'est-à-dire si le nombre d'Avogadro était infini?

Nous pressentons bien évidemment alors que D s'annulerait, et que le déplacement de diffusion brownien disparaîtrait tout simplement dans cette limite. Autrement dit, le mouvement brownien cesserait immédiatement si la Nature était continue! Ce qui est un résultat remarquable de preuve de l'aspect discret de la nature!

En Savoir Plus

- Physique statistique, B. Diu + C. Guthmann + D. Lederer + B. Roulet Éditions Hermann,
ISBN10: 2705660658 (1001 pages) - Imprimé en 1989


Haut de page

MECANIQUE ONDULATOIRETHERMODYNAMIQUE


Like11   Dislike1
66.9% sur 100%
Notée par 29 visiteur(s)
12345
Commentaires: [0] 
 
 


W3C - HTMLW3C - CSS Firefox
Ce travail est dans le domaine public
2002-2017 Sciences.ch

Haut de page