La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Mécanique Statistique Mirta B. Gordon Groupe Théorie / SPSMS Département de Recherche Fondamentale / CEA-Grenoble Équipe Apprentissage / Laboratoire Leibniz.

Présentations similaires


Présentation au sujet: "Mécanique Statistique Mirta B. Gordon Groupe Théorie / SPSMS Département de Recherche Fondamentale / CEA-Grenoble Équipe Apprentissage / Laboratoire Leibniz."— Transcription de la présentation:

1 Mécanique Statistique Mirta B. Gordon Groupe Théorie / SPSMS Département de Recherche Fondamentale / CEA-Grenoble Équipe Apprentissage / Laboratoire Leibniz IMAG-Grenoble

2 plan introduction principe du maximum d'entropie distribution microcanonique distribution canonique fluctuations et limite thermodynamique évolution vers l'équilibre simulations numériques

3 systèmes physiques le comportement d'un système physique composé de N particules i 1 i N découle des positions r i (t) et les vitesses v i (t) des particules déterminés à tout instant t > t 0 par les les conditions initiales r i (t 0 ) et v i (t 0 ) i et les forces F i agissant sur les particules suivant les lois de la mécanique (Newton) : r i (t) : positions, point représentatif dans l'espace des phases x(t) =v i (t) : vitesses, s i (t) : orientation des spins à chaque condition initiale du système correspond une trajectoire x(t) unique dans l'espace des phases

4 systèmes macroscopiques pour connaître l'état du système il n'y a qu'à calculer les trajectoires r i (t), v i (t) en intégrant les équations de Newton mais... système physique : N atomes /gramme grand nombre de degrés de liberté calcul des trajectoires impossible : stockage ( 6 x bytes nécessaires pour chaque point) conditions initiales : temps pour écrire nombres à 1 GHz ? ( à 10 9 nombres par sec d'années !!!!!! ) peu de variables "macroscopiques" ( pression, température, volume, aimantation ) la trajectoire microscopique évolue avec le temps mais les grandeurs macroscopiques ne varient pas états stationnaires : description probabiliste indépendante du temps

5 au cours de son évolution temporelle, le système visite tous les états microscopiques compatibles avec les contraintes macroscopiques on considère un ensemble de systèmes identiques, distribués dans l'espace des phases avec une densité de probabilités compatible avec les contraintes au lieu de calculer les propriétés moyennes sur la trajectoire des phases, on calcule les moyennes (statistiques, instantanées) sur un ensemble de points représentatifs du système la plupart des évolutions temporelles (microscopiques) présentent les mêmes propriétés macroscopiques : dans la limite des très grands systèmes, les trajectoires atypiques représentent une fraction négligeable des trajectoires possibles au lieu de calculer les propriétés moyennes sur une trajectoire particulière, on calcule les moyennes (statistiques) sur toutes les conditions initiales possibles, correspondant à autant de trajectoires possibles mécanique statistique hypothèse ergodique : les moyennes temporelles le long de la trajectoire dans l'espace des phases sont égales aux moyennes d'ensemble dans l'espace des phases Question : quelle P(x) adopter pour l'ensemble statistique ?

6 paradigme : le modèle d'Ising

7 magnétisme : les particules (électrons, neutrons, molécules) possèdent un moment magnétique (spin) qui s'oriente suivant le champ magnétique orientation préférentielle (qui minimise l'énergie) : spin parallèle au champ aimantation (observable) : orientation moyenne des spins du système modèle d'Ising : proposé pour décrire les propriétés magnétiques des solides moment magnétique élémentaire (spin) : seulement deux orientations possibles ( s=1) ou (s=-1) dans un champ magnétique h, les spins s'orientent parallèlement à h : s i =signe(h) ou s i h > 0 énergie : -s i h énergie : N spins : aimantation : h "mal" orienté "bien" orienté spins d'Ising (1)

8 modèle d'Ising (2) spins en interaction : les spins s k produisent un champ sur le spin s i (qui se rajoute au champ externe) donné par : où les J ik sont les constantes d'interaction énergie du système de N spins en interaction : remarque : J ik sisi sksk

9 modèle d'Ising (3) cas simples : modèle de cristal paramagnétique J ik =0 modèle de système ferromagnétique : J ik =J > 0 unidimensionnel : chaîne de spins bidimensionnel : réseau carré interactions à portée infinie (champ moyen) modèle de système désordonné : J ik = aléatoires J ik sisi sksk

10 applications à d'autres domaines (4) modèle d'ordre-désordre dans les alliages s i =1 : le site i est occupé par un atome de type A s i =-1 : le site i est occupé par un atome de type B J ik =J AA, J AB ou J BB (J ik >0 si attraction, J ik <0 si répulsion) modèle de Hopfield de mémoire associative s i =1 : le neurone i est actif s i =-1 : le neurone i est inactif J ik = efficacité de la synapse entre les neurones modèles de "consensus" s i =1 : opinion favorable s i =-1 : opinion défavorable J ik = influence de l'individu k sur l'individu i... voir la suite de cette École !

11 THE END présentation du modèle d'Ising

12 probabilités, information et entropie x : variable décrivant l'état du système : probabilité que l'état du système soit x normalisation : quantité d'information associée à l'état x : information manquante avant d'apprendre que l'état est x information acquise si l'on "apprend" que l'état du système est x [ plus P(x) est petit et plus l'information si x se produit est grande ] [ si P(x)=1 s(x)=0 ] entropie associée à la distribution de probabilité P(x) manque d'information moyenne ignorance moyenne sur une variable x de probabilité P(x)

13 exemples : pile ou face si : information manquante : entropie : si l'on prend le log en base 2, on choisit le bit comme unité de mesure bit = binary information unit il suffit d'un seul bit pour exprimer l'information manquante si information manquante : entropie : moins d'entropie que la distribution équiprobable

14 en absence de champ magnétique : entropie par spin : aimantation par spin : spins d'Ising en présence d'un champ magnétique (énergie minimale) si h > 0 : entropie : 0 aimantation par spin : description probabiliste "naïve" h "mal" orienté "bien" orienté

15 principe du maximum d'entropie comment attribuer des probabilités P(x) aux différents états x possibles ? principe du maximum d'entropie (Jaynes) : "la distribution de probabilités est celle qui maximise l'entropie, en respectant les contraintes macroscopiques" (lois de conservation, connaissances a priori, données empiriques, etc) on n'introduit aucune information arbitraire seules les informations connues introduisent des contraintes sur P(x)

16 équiprobabilité distribution de probabilités P(x) en absence d'informations : maximisersous la contrainte donne : où est le nombre de réalisations possibles de la variable x si la seule contrainte est la normalisation, MaxEnt tous les états sont équiprobables

17 ensemble microcanonique

18 système isolé : contraintes l'énergie E(x)=E 0 physique conservation de le nombre de particules N=N 0 contraintes sur P(x) MaxEnt : tous les états de N 0 particules et d'énergie E 0 sont équiprobables soit (E 0 ) le: nombre de micro-états x de N 0 particules et d'énergie E 0 vérifie

19 ensemble microcanonique entropie: remarque :

20 température définition : la température T du système est définie par : situation "normale" : (E 0 ) augmente avec E 0 généralement la température est positive (pas vrai si l'énergie est bornée)

21 modèle d'Ising paramagnétique (1) N 0 spins sans interactions, dans un champ magnétique h énergie ; aimantation description microcanonique : micro-état x = {s 1,s 2,..., s N } {N +,N - } fraction de spins -1 : nombre d'états accessibles : formule de Stirling : entropie : h s=-1 s=+1 l'aimantation est imposée par E 0

22 paramagnétique (2) l'entropie et l'énergie sont extensives E N 0 S N 0 température : si N_ 0 T si N_ N 0 /2 T si N_ N 0 T

23 contact thermique deux sous-systèmes en contact thermique N=N 1 + N 2, énergie : E 0 = E 1 + E 2 + E int avec E 1 et E 2 imposées interactions à courte portée : E int 0 énergie additive : E 0 = E 1 + E 2 états possibles : entropie additive : S T = S(E 1 ) + S(E 2 ) S(E 0 ) sous-système 1sous-système 2 E 1, N 1 T 1 E 2, N 2, T 2

24 l'entropie change (augmente) au cours du temps : si 0 < T 1 < T 2 dE 1 /dt > 0 : E 1 augmente (E 2 décroît) si T 1 < T 2 < 0 l'énergie circule des parties à haute température vers celles à basse température (du plus "chaud" vers le plus "froid") jusqu'à ce que T 1 =T 2 et S T = S(E 0 ) si T 1 < 0 < T 2 dE 1 /dt < 0 : E 1 décroît (E 2 augmente) les températures négatives sont plus "chaudes" que les positives ! évolution vers l'équilibre

25 ensemble canonique

26 distribution canonique le nombre de particules est fixe : N (N 0 >> N) l'énergie peut fluctuer autour d'une moyenne E >> E 0 distribution de probabilités : maximisersous les contraintes : donne la distribution canonique ou de Gibbs : fonction de partition

27 fonctions thermodynamiques distribution canonique : énergie moyenne : entropie : s'expriment en termes de l'énergie libre : car;

28 interprétation du paramètre si le système est en contact thermique avec un autre système (réservoir) et (système + réservoir) : isolés température système = température réservoir probabilité du micro-état x du système : E(x) << E 0 : par comparaison avec la distribution canonique : température réservoir système E,N,T E 0 -E N 0 -N T

29 ising paramagnétique revisité énergie : la fonction de partition se factorise : énergie libre : aimantation : les spins peuvent fluctuer : le comportement de M dépend du rapport h=h/T

30 énergie libre on a imposé E : cela a introduit un multiplicateur (paramètre de Lagrange) = ( E ) : detérminé (en principe) en inversant dépend de chaque problème à travers de E(x) il est convenable de considérer comme un paramètre imposé par le réservoir : la quantité fondamentale est l'énergie libre oùest la fonction de partition à l'équilibre F doit être minimale, car

31 fluctuations et limite thermodynamique

32 probabilité de E Probabilité que l'énergie du systèm soit E où nombre d'états x / E(x)=E entropie microcanonique

33 énergie la plus probable E M = énergie la plus probable : correspond à celle qu'aurait un système isolé à T=1/ (température du réservoir) elle est non nulle : effet de (E), qui augmente rapidement avec E et compense la décroissance de l'exponentielle. E M vérifie la condition de maximum :

34 fluctuations de l'énergie distribution d'énergies au voisinage de E M : fluctuations :

35 ordres de grandeur énergie extensive entropie extensive système de N 0 particules variance de E : la fluctuation relative de E est normale : même résultat pour toute quantité extensive qui peut fluctuer N.B. la température est intensive : limite thermodynamique

36 limite thermodynamique la limite s'appelle limite thermodynamique les fluctuations s'annulent : une seule valeur de l'énergie avec probabilité 1 : comportement typique dans cette limite : valeur la plus probable = valeur moyenne prédictions microcanoniques = prédictions canoniques pratique : on calcule les propriétés à N 0 fini, et on passe à la limite prédiction du comportement typique (se vérifie avec probabilité 1) phrases équivalentes : fluctuations négligeables, E=E M avec probabilité 1, E=0, comportement typique

37 systèmes hors d'équilibre

38 évolution vers l'équilibre système isolé hors d'équilibre : équation maîtresse : équilibre : indep. du temps bilan : probabilités de transition entre l'état x et l'état x'

39 principe du bilan détaillé si le bilan se vérifie au niveau de chaque état (bilan détaillé) : on peut déduire des propriétés des probabilités de transition système isolé ( E=E 0, N=N 0 ) à l'équilibre : distribution microcanonique bilan détaillé : système en contact avec un réservoir ( T=1/, N=N 0 ) à l'équilibre : distribution canonique bilan détaillé :

40 théorème H avec les relations de bilan détaillé on démontre explicitement que : un système isolé hors d'équilibre évolue de façon à augmenter son entropie un système en contact avec un thermostat évolue de façon à diminuer son énergie libre

41 simulations numériques Algorithme de Metropolis : on fixe la température T= 1/ on part d'un état initial x, tiré au hasard, on calcule son énergie E(x) on réitère les pas 1 à 3 : 1. on tire au hasard un nouvel état x' 2. on calcule l'énergie E(x') 3. on calcule le rapport si r>1, E(x')< E(x) : on accepte le nouvel état x' si r E(x) : on l'accepte avec probabilité r évolution : vers des états de probabilité canonique, car le bilan détaillé est satisfait :

42 recuit simulé on initialise l'état des composants (p. ex. spins) du système au hasard ( on repète le procédé suivant : on applique l'algorithme de Metropolis pendant un certain nombre d'itérations ( recuit ) ensuite on augmente (on diminue T ) jusqu'à la température finale permet d'obtenir l'état de plus basse énergie

43 THE END


Télécharger ppt "Mécanique Statistique Mirta B. Gordon Groupe Théorie / SPSMS Département de Recherche Fondamentale / CEA-Grenoble Équipe Apprentissage / Laboratoire Leibniz."

Présentations similaires


Annonces Google