La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

1 Plan du cours Introduction Notions de mécanique : force, énergie, travail, puissance… Température et chaleur Systèmes, transformations et échanges thermodynamiques.

Présentations similaires


Présentation au sujet: "1 Plan du cours Introduction Notions de mécanique : force, énergie, travail, puissance… Température et chaleur Systèmes, transformations et échanges thermodynamiques."— Transcription de la présentation:

1 1 Plan du cours Introduction Notions de mécanique : force, énergie, travail, puissance… Température et chaleur Systèmes, transformations et échanges thermodynamiques Premier principe de la thermodynamique Second principe de la thermodynamique Brève introduction aux probabilités et à la statistique Notions élémentaires de mécanique statistique Théorie de l’information Placez le curseur sur l’illustration dont vous désirez connaître l’origine.

2 2 Mécanique statistique La thermodynamique envisage le monde à partir des données qui nous sont directement perceptibles, telles la pression, le volume, la température… sans chercher à établir un lien entre les comportements observés et la constitution des corps en termes d’atomes et de molécules, dont l’existence demeurait d’ailleurs conjecturale au temps de Carnot, Maxwell, Clausius… La mécanique statistique a pour but d’étudier ce lien. Elle parvient ainsi non seulement à éclairer d’un jour nouveau les résultats de la thermodynamique, mais encore à prédire des phénomènes dont l’étude échappe à cette dernière.

3 3 Pourquoi statistique ? Pierre Simon, marquis de Laplace (1749-1827)

4 4 Mécanique statistique Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l’Analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir, comme le passé, serait présent à ses yeux. Pierre Simon, marquis de Laplace, Essai philosophique sur les probabilités (1825) Œuvres complètes, T7, pp vi & vii.

5 5 Mécanique statistique Si on imagine bien comment, en principe, les propriétés macroscopiques sont calculables à partir de mesures de position et de vitesse des molécules composant un système, il s’agit d’une tâche impossible à mener à bien dans les faits. La mécanique statistique évite cet écueil en se donnant pour but de déterminer des lois de sommation et de moyenne, en faisant appel aux outils de la statistique et des probabilités.

6 6 Un exemple numérique La description des 6  10 23 molécules présentes dans une mole requiert 3 nombres (4 octets chacun) pour la position et autant pour la vitesse, soit 144  10 23 octets. Les débits de données les plus élevés actuellement réalisables sont de l’ordre de 10 9 octets par seconde. La transmission des données relatives à une mole prendrait donc 144  10 14 secondes, soit environ 500 millions d’années. La précision limitée des données ainsi transmises ne permettrait de décrire le mouvement des molécules que pendant une période incomparablement plus brève.

7 7 Classification des systèmes On distingue les systèmes microcanoniques : le système étudié est isolé. Tous les états possibles ont donc même énergie. canoniques : le système interagit uniquement avec un thermostat. grand canoniques : le nombre de particules présentes dans le système peut varier, mais il interagit avec un réservoir de constituants de sorte à garder constantes sa température et l’énergie interne par unité de constituant. Nous étudierons uniquement les deux premiers cas.

8 8 Classification des états À un état macroscopique d’un système, caractérisé par les variables d’état, p, v, T, S… correspond un grand nombre de microétats, décrits par les positions, vitesses, énergies… des atomes ou molécules qui le constituent. Tous les microétats correspondant à un même état macroscopique sont équivalents.

9 9 Systèmes microcanoniques Postulant que tous les microétats sont équiprobables, on observe que les états macroscopiques ont des probabilités d’apparition différentes. Illustrons ceci en considérant un système formé de quatre pièces de monnaie, caractérisées par une seule variable prenant les valeurs p ou f. Ce système peut se trouver dans l’un des 16 microétats possibles, auxquels correspondent 5 états macroscopiques, correspondant à n p = 0, 1, 2, 3, 4 (et n f = 4 – n p ).

10 10 Systèmes microcanoniques Le comptage des microétats donne le résultat suivant : n p = 0, un microétat, n p = 1, quatre microétats, n p = 2, six microétats, n p = 3, quatre microétats, n p = 4, un microétat. L’état macroscopique le plus fréquemment observé sera n p = 2, avec une probabilité égale à 6 / 16, soit 0.375. Pour la thermodynamique classique, ce système isolé doit évoluer vers l’état macroscopique d’entropie maximum.

11 11 Systèmes microcanoniques Une définition de l’entropie en terme du nombre de microétats (ou nombre de configurations) associés à un état macroscopique donné, devrait donc être une fonction croissante, respectant le principe d’additivité : si deux systèmes A et B sont accolés pour n’en faire plus qu’un, l’entropie totale est la somme de celle des sous-systèmes :

12 12 Systèmes microcanoniques Le nombre de configurations du système global est égal au produit du nombre de configurations de chacun des sous- systèmes : Il est donc naturel d’effectuer la correspondance entre les deux à l’aide de la fonction logarithme où k B est la constante de Boltzmann rencontrée précédemment.

13 13 Systèmes microcanoniques Le nombre de configurations, , est encore appelé probabilité thermodynamique, nombre de désordre de l’état macroscopique, complexion du système. Comme il s’agit manifestement d’un nombre entier, l’appellation « probabilité thermodynamique » est un abus de langage, lié au fait que le rapport des probabilités de deux états macroscopiques est égal à celui de leur nombre de configurations :

14 14 Détente libre de Joule Considérons tout d’abord le cas d’une enceinte ne contenant que 4 particules. Dans l’état initial, elles sont toutes dans la moitié gauche de l’enceinte. Cette configuration n’est réalisée que par un seul microétat. À l’état final, on observe une répartition 2 – 2, à laquelle correspondent 6 microétats. La variation d’entropie associée est de :

15 15 Détente libre de Joule Considérons maintenant le cas d’une enceinte contenant une mole de gaz parfait. La probabilité pour une particule de se trouver initialement dans le sous-volume de gauche est donnée par La probabilité de présence des diverses particules étant indépendantes entre elles, il vient pour une mole

16 16 Détente libre de Joule À l’issue de la détente, le gaz occupe la totalité de l’enceinte. Cet état étant le seul ayant jamais été observé, on peut écrire : et retrouver pour la variation d’entropie la valeur obtenue précédemment :

17 17 Mélange de deux gaz Soit une enceinte divisée en deux compartiments, de volumes v g et v d, contenant respectivement n g et n d moles de gaz parfait différents, isolée par ailleurs du monde extérieur. On met les deux volumes en communication, au prix d’un travail négligeable. Quelle est la variation d’entropie correspondant au mélange des deux gaz ? Les molécules de gaz parfait n’ayant aucune interaction entre elles, la variation d’entropie cherchée sera la somme des variations d’entropie de chacun des gaz présents dans le système.

18 18 Mélange de deux gaz On constate que le mélange est toujours accompagné d’une augmentation d’entropie. Si on reprend ce raisonnement en imaginant que les deux compartiments recèlent initialement des gaz parfaits identiques à pression égale, on obtient bien sûr le même résultat.

19 19 Paradoxe de Gibbs L’état du système (c’est-à-dire l’ensemble des valeurs mesurées pour les variables d’état p, v, T et n) n’a cependant pas changé et la fonction d’état S ne devrait donc pas varier. La solution apportée par Boltzmann à ce problème repose sur une meilleure prise en compte du fait que les particules de gaz différents peuvent encore être discernées les unes des autres après le mélange, tandis que celles de gaz identiques ne portent aucune information relative à leur emplacement d’origine.

20 20 Fluctuations statistiques Le lien entre entropie et probabilité conduit à la relation dont il résulte qu’une évolution produisant une diminution d’entropie est permise, mais que toute baisse significative est extrêmement improbable.

21 21 Fluctuations statistiques La mécanique statistique permet une inversion spontanée de la détente libre de Joule, chose que la thermodynamique interdit et que personne n’a jamais observée ! La probabilité qu’une mole de gaz parfait occupant initialement la totalité du volume disponible, v, se rassemble spontanément dans une moitié de celui-ci est cependant égale à nombre extrêmement petit.

22 22 Fluctuations statistiques Pour pouvoir observer des comportements en contradiction avec le second principe, il faut que le nombre d’atomes ou de molécules concernés soit relativement faible. Ces écarts par rapport à l’équilibre thermodynamique sont appelés fluctuations statistiques. Ainsi de petites particules en suspensions dans un fluide pourront sembler momentanément se diriger dans une direction privilégiée, c’est le mouvement brownien.

23 23 Mouvement Brownien Robert Brown (1773-1858) L’explication du mouvement brownien, observé en 1827 sur des grains de pollen en suspension dans l’eau, a été donnée par Albert Einstein. Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen (1905).

24 24 Opalescence critique Un autre exemple de fluctuation statistique est donné par le comportement d’un fluide au point critique, où l’apparition et la disparition constante de gouttelettes au sein du fluide lui donnent un aspect laiteux, appelé opalescence critique. Consulter la vidéo illustrant le cas de l’hexafluorure de soufre (SF 6 ).

25 25 Systèmes canoniques Un système canonique, C, est composé du système proprement dit, A, et d’un thermostat, B, à température constante T. Les seuls échanges permis entre ces deux composantes sont des échanges de chaleur. Dans ces conditions, d’où, en intégrant

26 26 Quantification Pour caractériser un atome ou une molécule, il faut en préciser l’énergie, la position, la vitesse. L’étude de la lumière émise par les atomes montre qu’ils ne peuvent exister que dans des états d’énergie déterminée, E i. À l’échelle atomique, l’énergie est dite quantifiée, ce qui exprime qu’elle ne peut varier que par sauts.

27 27 Quantification Werner Heisenberg (1901-1976)Niels Bohr (1885-1962)

28 28 Distribution de Boltzmann Si un échange d’énergie a lieu entre le système et le thermostat, cela ne pourra se faire que par sauts discrets, portant un atome du système d’un état d’énergie E i à un état d’énergie E j. En ce qui concerne A, il s’agit d’un transfert ordonné d’énergie, c.-à-d. d’un travail. En ce qui concerne B, il s’agit d’un échange de chaleur, car non caractérisé.

29 29 Distribution de Boltzmann Il résulte de cela que l’entropie de A reste constante, tandis que celle de B varie et donc : Cette variation est également celle du système combiné Le lien entre entropie et probabilité nous permet dès lors de calculer la probabilité de trouver un atome dans l’état i.

30 30 Distribution de Boltzmann et donc : où nous devons encore préciser la valeur de la constante P 0 en imposant que la somme des probabilités soit égale à l’unité :

31 31 Distribution de Boltzmann La somme présente au dénominateur du membre de droite jouera un rôle important par la suite. Notée Z, elle porte le nom de fonction de partition ou de somme d’états du système, On peut dès lors écrire :

32 32 Distribution de Boltzmann Si le système compte N atomes, chacun d’eux a une probabilité p i de se trouver dans l’état i et (1 – p i ) de se trouver dans un état différent. Le nombre moyen d’atomes dans l’état i sera donné par : C’est la distribution de Boltzmann. Avant d’établir à partir de là la forme des fonctions d’état d’un système canonique, il nous faut encore introduire la relation de Stirling.

33 33 Formule de Stirling James Stirling (1692-1770) a obtenu l’approximation suivante que l’on peut établir comme suit :

34 34 Formule de Stirling

35 35 Formule de Stirling Connaissant la primitive (intégrale indéfinie) on trouve et donc

36 36 Entropie : système canonique Si, dans un système de N particules, N i se trouvent dans l’état i, le nombre de configurations du système est donné par : et son entropie par : d’où, en utilisant la formule de Stirling,

37 37 Entropie : système canonique où les termes soulignés se compensent.

38 38 Entropie : système canonique On trouve pour l’entropie totale

39 39 Entropie : système canonique À l’équilibre, S C atteint sa valeur maximale. Pour trouver la distribution des N i correspondant à l’équilibre, il faut donc résoudre un problème d’extremum lié, puisque La méthode des multiplicateurs de Lagrange mène aux équations

40 40 Entropie : système canonique Soit Sommant membre à membre, on trouve

41 41 Entropie : système canonique D’où finalement A l’équilibre, les nombres d’occupation sont égaux à leur valeur moyenne. On peut maintenant calculer l’entropie à l’équilibre.

42 42 Entropie : système canonique À l’équilibre,

43 43 Entropie : système canonique Le premier terme du second membre correspond à l’entropie du système proprement dit, c’est la relation de Gibbs.

44 44 Utilité de la fonction Z Nous allons montrer maintenant que les fonctions d’état S A, U A et F A peuvent être déduites de la fonction de partition Z. Cette dernière contient donc la totalité de l’information nécessaire à la description du système.

45 45 Système canonique : U Rapprochant deux expressions de l’énergie moyenne d’une particule, Cette expression peut encore être améliorée en faisant usage de la relation suivante : on obtient

46 46 Système canonique : U qui permet finalement d’écrire :

47 47 Système canonique : S La formule de Gibbs donne

48 48 Système canonique : F L’énergie libre s’obtient en remplaçant l’entropie et l’énergie interne par leur expression en fonction de Z dans la relation qui la définit :

49 49 F.P. d’un gaz parfait L’énergie d’un atome d’un gaz parfait monoatomique est purement cinétique : La quantification de l’énergie se manifeste ici par le fait qu’un nombre fini d’états peuvent se trouver dans le domaine

50 50 F.P. d’un gaz parfait Plus précisément, ce nombre d’états est donné par : où h est la constante Planck, valant 6.62×10 -34 J·s. Si on recouvre l’espace de phase (x, y, z, p x, p y, p z ) par un maillage de « cubes » d’arête  x,  y,  z,  p x,  p y,  p z, chacun apportera à la fonction de partition une contribution

51 51 F.P. d’un gaz parfait Cette somme peut être transformée en l’intégrale où on a tiré parti de l’indépendance de la fonction à intégrer vis-à-vis des variables de position x, y, et z, par rapport auxquelles l’intégration est immédiate et donne le volume occupé par le gaz. Il reste donc, en factorisant l’exponentielle :

52 52 F.P. d’un gaz parfait Cette intégrale triple se ramène à trois fois la même intégrale simple : qu’il est possible, par un changement de variable, de ramener à l’intégrale de S.D. Poisson, I P, (expression soulignée) :

53 53 F.P. d’un gaz parfait Pour calculer la valeur de I P, le plus simple est d’en calculer d’abord le carré en passant aux coordonnées polaires

54 54 F.P. d’un gaz parfait À l’issue de ce calcul laborieux, on trouve enfin expression dont la dérivée logarithmique vaut

55 55 Gaz parfait : U et S On trouve dès lors pour l’énergie interne et pour l’entropie

56 56 Gaz parfait : U et S Ces expressions de U et S « à la Boltzmann » devraient coïncider avec celles que nous avons obtenues précédemment « à la Clausius » : Ce qui est le cas pour autant que valeur effectivement observée pour les gaz monoatomiques.

57 57 Gaz parfait : U et S Il est d’une part gratifiant de constater que deux approches, a priori différentes, conduisent au même résultat. D’un autre côté, on eût souhaité voir l’approche de la mécanique statistique apporter une solution au paradoxe de Gibbs : l’entropie d’un gaz parfait contenu dans un volume donné n’est pas égale au double de l’entropie correspondant à la moitié de ce volume. Un examen plus minutieux du chemin suivi dans notre démonstration nous permettra de résoudre ce problème.

58 58 Paradoxe de Gibbs Commençons par réécrire le résultat obtenu en mécanique statistique : en regroupant sous la notation S 0 les termes indépendants des variables d’état.

59 59 Paradoxe de Gibbs La difficulté rencontrée vient de ce que, en calculant le nombre de configurations d’un état macroscopique donné, nous avons considéré comme distincts des microétats qui ne l’étaient pas. La correction apportée par Boltzmann consiste à utiliser :

60 60 Paradoxe de Gibbs Il s’agit de la même différence que celle existant entre le snooker et le billard américain.

61 61 Paradoxe de Gibbs On trouve dès lors : d’où :

62 62 Paradoxe de Gibbs Si on considère deux enceintes, chacune de volume v / 2, contenant n / 2 moles du même gaz parfait maintenu dans des conditions identiques, on trouve maintenant pour l’entropie du tout une valeur double de celle correspondant à une moitié, comme il se doit.

63 63 Indiscernabilité des particules On peut montrer que les particules se répartissent en fermions et en bosons. Dans le cas des fermions, un état donné peut être occupé par une particule au plus, tandis qu’il n’existe pas de limite au nombre de bosons pouvant se trouver simultanément dans le même état. Le facteur Boltzmann est alors remplacé par :

64 64 Fermions et bosons Enrico Fermi (1901-1954)Satyendranath N. Bose (1894-1974)

65 65 Indiscernabilité des particules Lorsque l’énergie thermique kT devient grande vis-à-vis de la séparation des niveaux |E i -E j |, on retrouve l’expression de Boltzmann.

66 66 Troisième principe À de très basses températures, seuls les états d’énergie la plus basse ont une probabilité significative d’être occupés :

67 67 Troisième principe À la limite, pour une température nulle, seul l’état d’énergie la plus basse sera occupé, le système se trouvera dans une configuration unique et aura par conséquent une entropie nulle. C’est le troisième principe de la thermodynamique, dû à Walther Nernst, tel que l’a formulé Max Planck. Nous admettrons sans démonstration qu’il en découle l’impossibilité d’atteindre une température nulle en un nombre fini d’étapes.

68 68 Walther Nernst (1864-1941)

69 69 Troisième principe À première vue cet énoncé se trouve contredit par l’exemple que nous avons le plus étudié : l’entropie des gaz parfaits diverge lorsque la température s’approche de zéro, puisqu’elle contient un terme en ln T. Il n’y a là rien d’étonnant : à très basse température, la matière passe en phase solide et le modèle des gaz parfaits perd toute validité. En phase solide, les atomes se rangent en un réseau cristallin. Ils ne sont cependant pas immobiles, car dans ce cas on pourrait déterminer leur position et leur vitesse avec une incertitude arbitrairement petite, ce qu’interdit la mécanique quantique.

70 70 Troisième principe Représentation de l’agencement des atomes dans un cristal de fer.

71 71 Oscillateur harmonique Dans ce réseau cristallin, les atomes oscillent au voisinage de leur position d’équilibre, c’est le modèle de l’oscillateur harmonique. Les énergies accessibles sont données par : Le calcul de la fonction de partition se ramène à la somme d’une série géométrique :

72 72 Oscillateur harmonique Ce modèle a été développé par Albert Einstein (1879- 1955).

73 73 Oscillateur harmonique Si le calcul de la fonction de partition est plus aisé que dans le cas des gaz parfait, celui des fonctions d’état est en revanche plus ardu. Nous en donnons ici les résultats, ainsi qu’un pointeur vers le détail des calculs.

74 74 Oscillateur harmonique Aux basses températures, l’entropie tend vers zéro. La chaleur spécifique tend également vers zéro aux basses températures. La chaleur spécifique tend vers une constante aux températures élevées. Ces trois types de comportements sont effectivement observés, avec des formes qui diffèrent cependant de celles données ici, indiquant ainsi que le modèle utilisé est encore susceptible d’être amélioré.


Télécharger ppt "1 Plan du cours Introduction Notions de mécanique : force, énergie, travail, puissance… Température et chaleur Systèmes, transformations et échanges thermodynamiques."

Présentations similaires


Annonces Google