Bibliographie
Georgette-Laura Cremer, "Physique Atomique et Moléculaire - Ions dans les Solides - Systèmes lasers - Tome 1", Editeur Gérard Lelièvre, Publication Missions Ressouces et Compétences Technologiques CNRS, 2010.
La physique statistique a pour but d'expliquer les propriétés macroscopiques d'un système physique comprenant un grand nombre de particules à partir d'une analyse statistique des propriétés microscopiques de ses particules. Elle démontre les propriétés macroscopiques du système à partir de la statistique sur les propriétés microscopiques.
La statistique de Maxwell-Boltzmann est une loi de probabilité, ou une distribution, qui détermine la répartition des particules entre différents états d'énergie quand l'équilibre statistique est atteint et qui correspond à un niveau de désordre maximum, autrement dit, lorsque l'entropie devient maximum.
Cette distribution est à la base de la théorie cinétique des gaz.
On commence par exposer le cas trivial où tous les états ont même énergie.
Etant donné un système composé de `N` particules, où chaque particule est caractérisée par un état appartenant à `A"="{1,2,3,...,n}`.
La taille du système correpond à `N`. Et on suppose que `N` est d'un ordre de grandeur supérieure à `n` ce qui se note `n-<N` sans quoi, on ne peut rendre unique la solution d'équilibre statistique.
On suppose que l'état des particules changent de façon aléatoire au cours du temps, comme dans une chaîne de Markov, mais avec une probabilité de changement égale pour tous les changement possibles. Délors, il existe un état d'équilibre statistique qui est atteint lorsque le niveau de désordre devient maximum, c'est à dire lorsque l'entropie est maximum. Et cet équilibre correspond à l'équiprobabilité des états des particules.
L'état macroscopique est la distribution `(N_1,N_2,...,N_n)` des particules dans les différents états `A`, et que l'on note parfois `(N_i)_(i in A)`, et où `N_i` est le nombre de particules ayant l'état `i`. Les états `A` étant exclusif et exshautifs, nous avons :
`sum_(i in A) N_i=N`
La distribution `(N_1,N_2,...,N_n)` est un paramètre extensif c'est à dire que si on double la taille du système en doublant `N` alors on double les termes de la distribution. On norme cette distribution pour en faire un paramètre intensif en divisant chaque terme par `N` :
`p_1 = N_1/N` `p_2 = N_2/N` `...` `p_n = N_n/N` `(p_i)_(i in A) = (N_i/N)_(i in A)`
La distribution `(p_1,p_2,...,p_n)` est donc normée, c'est à dire :
`sum_(i in A) p_i=1`
La distribution `(p_1,p_2,...,p_n)` est la loi de probabilité des états des particules. Autrement dit, `p_i` est la probabilité qu'une particule choisie au hasard, ou bien à un instant choisi au hasard, soit dans l'état `i`.
L'état microscopique du système est un `N`-uplet d'éléments de `A` représentant l'état de chaque particule. Les particules sont ainsi identifiés par un numéros. Elles sont identifiables, comme si elles étaient toutes distinctes. On parlera d'ensemble de particules discernables.
La quantité d'information `Q(N_1,N_2,...,N_n)` se définie comme le logarithme du nombre d'états microscopiques possibles pour le même état macroscopique `(N_1,N_2,...,N_n)`. Elle désigne la quantité d'information, exprimée en nombre de bits si le logarithme est en base `2`, qu'il faut ajouter à la connaissance de l'état macroscopique `(N_1,N_2,...,N_n)` pour déterminer complètement l'état microscopique du système. Nous verrons que ce paramètre est extensif à un ordre près, c'est à dire que si on double la taille du système en doublant `N`, alors on double `Q` à un ordre près.
L'entropie `S(N_1,N_2,...,N_n)` s'obtient en divisant cette quantité d'information `Q(N_1,N_2,...,N_n)` par `N`. Nous verrons que ce paramètre est intensif à un ordre près, c'est à dire que si on double la taille du système en doublant `N`, alors l'entropie `S` reste inchangée à un ordre près.
Le nombre d'états microscopiques possibles dans un état macroscopique `(N_1,N_2,...,N_n)` est le nombre de combinaisons suivants :
`(N!)/((N_1)!(N_2)!(N_3)!...(N_n)!)`
`(N!)/(prod_(i in A)(N_i)!)`
Plus ce nombre de combinaisons est grand, plus l'état macroscopique correspondant est associé à un niveau de désordre grand c'est à dire à une entropie grande. Ce nombre est maximum pour l'état macroscopique `(N"/"n,N"/"n,...,N"/"n)`, c'est à dire lorsque les états des particules sont équiprobables :
`N_1=N_2=...=N_n="N/n`
L'état d'équilibre statistique correspond au désordre maximum et donc à cette répartition équiprobable des états microscopiques des particules.
Calculons maintenant la quantité d'information `Q(N_1,N_2,...,N_n)` :
`Q = log((N!)/(prod_(i in A)(N_i)!))`
`Q = log(N!) - sum_(i in A) log(N_i!)`
On développe `Q` en utilisant les deux premier termes de la formule de Stirling :
`ln(x!) = xln(x) - x + o(ln(x))`
L'ordre de grandeur étant au delà même d'un facteur près, la base du logarithme n'a pas d'importance :
`Q = Nln(N) -N + o(ln(N)) - sum_(i in A) ( N_i ln(N_i) - N_i + o(ln(N_i)) )`
`Q = Nln(N) -N- sum_(i in A) N_i ln(N_i) + sum_(i in A)N_i + o(ln(N) + sum_(i in A)ln(N_i))`
`Q = Nln(N) - sum_(i in A) N_i ln(N_i) + o(ln(N) + sum_(i in A)ln(N_i))`
Par hypothèse nous avons :
`1"≺"N`
`n"≺"N`
`0"≺"N_1`, `0"≺"N_2`, ..., `0"≺"N_n` (les `N_i` sont des entiers positifs non nuls)
`N=N_1"+"N_2"+"..."+"N_n`
La somme des `ln(N_i)` est donc comprise entre deux cas extrêmes de distribution, la distribution `(N"/"n, N"/"n, N"/"n, ...,N"/"n)` et la distribution `(N"-"n"+"1,1,1,...,1)` :
`n ln(N) "-" n ln(n) <= sum_(i in A) ln(N_i) <= nln(N)`
On en conlut que :
`o(sum_(i in A) ln(N_i)) = o(ln(N))`
Conclusion :
`Q(N_1,N_2,...,N_n) = Nln(N) - sum_(i in A) N_i ln(N_i) + o(ln(N))`
On développe l'expression de l'entropie `S=Q"/"N` en faisant apparaître la loi de probabilité `p_i=N_i"/"N` :
`S = ln(N) - sum_(i in A) N_i/N ln(N_i) + o(ln(N)/N)`
`S = ln(N) - sum_(i in A) p_i ln(Np_i) + o(ln(N)/N)`
`S = ln(N) - sum_(i in A) (p_i ln(N)+p_iln(p_i)) + o(ln(N)/N)`
`S = ln(N) - ln(N) sum_(i in A) p_i - sum_(i in A) p_i ln(p_i) + o(ln(N)/N)`
`S = ln(N) - ln(N) - sum_(i in A) p_i ln(p_i) + o(ln(N)/N)`
`S(N_1,N_2,...,N_n) = - sum_(i in A) p_i ln(p_i) + o(ln(N)/N)`
L'entropie s'exprime donc en fonction uniquement de la loi de probabilité `(p_1,p_2,...,p_n)` qui est un paramètre intensif, et ceci à l'ordre `ln(N)"/"N`. On en conclut que l'entropie `S(N_1,N_2,...,N_n)` à l'ordre `ln(N)"/"N` est un paramètre intensif. C'est pourquoi on la notera parfois par `S(p_1,p_2,...,p_n)`.
La quantité d'information, qui par définition est égale à l'entropie multipliée par `N`, est donc un paramètre extensif à l'ordre `ln(N)` près.
A l'équilibre statistique, les états des particules sont équiprobables et donc de probabilité égale à `1"/"n`. Donc l'entropie `S` est égale à :
`S_"max" = ln(n) + o(ln(N)/N)`
Le problème se complique en introduisant une énergie propre à chacun des états particulaire.
Etant donné un système composé de `N` particules et possédant une énergie `E`. Chaque particule est caractérisée par un état `i` appartenant à `A={1,2,3,...,n}` et par une énergie `epsilon_i` qui est emmagasinée par la particule ayant cet état `i`. L'énergie `E` est la sommes des énergies de toutes les particules.
L'état macroscopique est défini comme précédement, par un paramètre extensif, la répartition `(N_1,N_2,...,N_n)`, où `N_i` est le nombre de particules dans l'état `i`, ou soit par un paramètre intensif, la loi de probabilité `(p_1,p_2,...,p_n)`, où `p_i=N_i"/"N` est la probabilité qu'une particule choisie au hasard, ou bien à un instant choisi au hasard, soit dans l'état `i`.
L'énergie totale `E` est la somme des énergies de toutes les particules. C'est un paramètre extensif :
`E=sum_(i inA)N_i epsilon_i`
Divisé par `N`, elle définit l'énergie par particule que l'on note `epsilon`. C'est l'énergie moyenne des particules. C'est un paramètre intensif.
`epsilon = sum_(i inA) p_iepsilon_i`
Pour des raisons pratiques propres à la thérmodynamique, on multiplie parfois cette énergie par particule, par le nombre d'Avogadro pour obtenir ainsi une énergie par mole tout autant non-utilisée. Puis, pour des raisons pratiques propre à la vie courante, on multiplie cette énergie par mole, par un facteur empirique `0.080181586...` `"KJ"^-1"mol"` pour obtenir une température en kelvin, c'est à dire, telle que l'écart de température entre celle du changement de phase de l'eau solide-liquide et celle du changement de phase liquide-gaz sous une pression d'une atmosphère soit d'une valeur égale à `100` `"kelvin"`.
On suppose que les particules changent d'états de façon aléatoire au cours du temps avec une probabilité de changement non discriminante vis-à-vis des autres états `A` mais néanmoins avec une contrainte, une seule contrainte, la conservation globale de l'énergie `E` sur le long terme. Délors, il existe un état d'équilibre statistique qui correspond au niveau de désordre maximum, c'est à dire lorsque l'entropie est maximum. Cet équilibre correspond à la distribution de Maxwell-Boltzmann.
L'état microscopique du système est un `N`-uplet d'éléments de `A` représentant l'état de chaque particule mais telle que l'énergie totale soit égale à `E`. Les particules sont ainsi identifiés par un numéro. Elles sont identifiables, comme si elles étaient toutes distinctes. On parlera d'ensemble de particules discernables.
La quantité d'information `Q(N_1,N_2,...,N_n)` se définie comme précédement :
`Q(N_1,N_2,...,N_n) = Nln(N) - sum_(i in A) N_i ln(N_i) + o(ln(N))`
L'entropie `S(N_1,N_2,...,N_n)` se définie comme précédement :
`S(N_1,N_2,...,N_n) = - sum_(i in A) p_i ln(p_i) + o(ln(N)/N)`
La distribution de Maxwell-Boltzmann, ici limitée à `n` états d'énergie `(epsilon_1,epsilon_2,epsilon_3,...,epsilon_n)`, est l'état macroscopique `(p_1,p_2,...,p_n)` d'entropie maximum avec la contrainte suivante :
`epsilon = sum_(i in A) p_iepsilon_i`
`1 = sum_(i in A) p_i`
La résolution consiste en la recherche du maximum de `S` dépendant d'un ensemble de variables `p_1,p_2,p_3,...p_(n"-"1)` liées par une équation linéaire. Nous n'avons pas encore présenter les outils mathématiques permettant de résoudre ce système d'équations, et nous présentons seulement la solution découverte par Boltzmann :
`p_i = e^(-epsilon_i/epsilon) /Z`
où `Z` est le facteur de normalisation, afin que `sum_(i in A) p_i = 1`.
`Z = sum_(i in A) e^(-epsilon_i/epsilon)`
Et où `epsilon` est l'énergie moyenne des particules `sum_(i in A) p_i epsilon_i = epsilon`.
L'entropie maximum correspondante est alors :
`S(p_1,p_2,...,p_n) = - sum_(i in A) p_i ln(p_i) + o(ln(N)/N)`
`S = -sum_(i in A) e^(-epsilon_i/epsilon) /Z ln(e^(-epsilon_i/epsilon) /Z)`
`S = -1/Zsum_(i in A) e^(-epsilon_i/epsilon) (ln(e^(-epsilon_i/epsilon))-ln(Z))`
`S = -1/Zsum_(i in A) e^(-epsilon_i/epsilon) (-epsilon_i/epsilon -ln(Z))`
`S = 1/Zsum_(i in A) epsilon_i/epsilon e^(-epsilon_i/epsilon) + ln(Z)sum_(i in A) e^(-epsilon_i/epsilon)`
`S = 1/Zsum_(i in A) epsilon_i/epsilon e^(-epsilon_i/epsilon) + Zln(Z)`
`S = 1/Zsum_(i in A) epsilon_i/epsilon Zp_i +Zln(Z)`
`S = 1/epsilon sum_(i in A) epsilon_i p_i + Zln(Z)`
`S = 1 + Zln(Z)`
`S(p_1,p_2,...,p_n) = 1 + Zln(Z) + o(ln(N)/N)`
Le problème se généralise en introduisant un état particulair continue `x` de domaine `x"∈"X`, et correspondant à une énergie `f(x)` de la particule. La fonction `f` doit être continue, et l'énergie totale `E` est la somme des énergies de toutes les particules.
Un exemple d'état particulaire continue `x` est donné par la vitesse d'une particule dans un univers unidimensionnel, et qui est associée à l'énergie cinétique de la particule, et la fonction `f` dans le cas classique sera `f(x) = (1"/"2)mx^2` où `m` est la masse de la particule.
On refait le même raisonnement que précédement mais en prenant comme états particulaires la succession des intervalles différentiels d'état particulaire `]x, x"+"dx[`. Le produit `p_xdx` représente la proportion des particules qui ont un état appartenant à `]x, x"+"dx[` (il s'agit d'une proportion différentielle donc infiniment petite). Chaque particule ayant cet état possèdera une énergie égale à `f(x,y,a,b)`. Ainsi `Np_xd_x` représente le nombre de particules ayant un état appartenant à `]x, x"+"dx[` (il s'agit d'un nombre différentiel donc infiniment petit). La fonction `{x|->p_x "/" x "∈" X}` s'appelle la distribution de la variable d'état `x`, et constitue une distribution normée :
`int_(x in X) p_xdx = 1`
L'énergie totale `E` est la somme des énergies de toutes les particules. C'est un paramètre extensif :
`int_(x in X) Np_xf(x)dx = E`
Divisé par `N`, cela définit l'énergie moyenne des particules, et c'est un paramètre intensif :
`int_(x in X) p_xf(x)dx = epsilon`
On suppose que l'état des particules changent de façon aléatoire au cours du temps sans privilégier de valeurs d'état particulières, mais néanmoins avec une contrainte, une seule contrainte, la conservation globale de l'énergie sur le long terme. Délors, il existe un état d'équilibre statistique qui est atteint lorsque le niveau de désordre devient maximum, c'est à dire lorsque l'entropie est maximum. Et cet équilibre correspond à la distribution de Maxwell-Boltzmann.
Et la distribution de la variable d'état `x` est alors :
`p_x = e^(-f(x)/epsilon) /Z`
où `Z` est le facteur de normalisation, afin que `int_(x in X) p_xdx = 1`.
`Z = int_(x in A) e^(-f(x)/epsilon) dx`
Le problème se généralise en introduisant plusieurs états particulairs continues `x,y` de domaine `x"∈"X`, `y"∈"Y`, et de plusieurs états particulairs discrets `a,b` de domaine `a"∈"A` et `b"∈"B`, et correspondant à une énergie `f(x,y,a,b)` de la particule. La fonction `f` doit être continue selon les variables d'état particulaire continu `x,y`, et l'énergie totale `E` est la somme des énergies de toutes les particules.
On transcrit le résultat précédent en prenant comme ensemble des états particulairs, le produit directe des différents ensembles d'états particulairs `X"×"Y"×"A"×"B`. Un état particulair aura la forme `(]x, x"+"dx[,]y, y"+"dy[,a,b)` et sera désigné par `(x,y,a,b)` et correspondra à une énergie `f(x,y,a,b)` pour une particule.
On note, `p_("("x,y,a,b")") dxdy`, la proportion des particules qui ont comme état `(]x, x "+"dx[,]y, y "+"dy[,a,b)`. Chaque particule ayant cet état possèdera une énergie égale à `f(x,y,a,b)`. Ainsi `Np_("("x,y,a,b")") dxdy` est le nombre de particule ayant un état `(]x, x "+"dx[,]y, y "+"dy[,a,b)` (il s'agit d'un nombre différentiel donc infiniment petit). Consiérons la fonction suivante :
`{(x,y,a,b)|->p_("("x,y,a,b")") "/" (x,y,a,b) "∈" X"×"Y"×"A"×"B}`
Cette fonction s'appelle la distribution des états particulairs, et constitue une distribution normée :
`sum_(a,b) int_(x,y) p_("("x,y,a,b")") dxdy = 1`
L'énergie moyenne des particules est :
`sum_(a,b) int_(x,y) f(x,y,a,b) p_("("x,y,a,b")") dxdy = epsilon`
Et la distribution des états microscopiques est :
`p_("("x,y,a,b")") =1/Z e^(-(f(x,y,a,b))/epsilon) `
où `Z` est le facteur de normalisation, afin que `sum_(a,b) int_(x,y) p_("("x,y,a,b")") dxdy = 1`
`Z =sum_(a,b) int_(x,y) e^(-(f(x,y,a,b))/epsilon)dx`
---- 30 décembre 2019 ----