La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Mécanique Statistique

Présentations similaires


Présentation au sujet: "Mécanique Statistique"— Transcription de la présentation:

1 Mécanique Statistique
Mirta B. Gordon Groupe Théorie / SPSMS Département de Recherche Fondamentale / CEA-Grenoble Équipe Apprentissage / Laboratoire Leibniz IMAG-Grenoble

2 plan introduction principe du maximum d'entropie
distribution microcanonique distribution canonique fluctuations et limite thermodynamique évolution vers l'équilibre simulations numériques

3 systèmes physiques le comportement d'un système physique composé de N particules i (1 £ i £ N ) découle des positions ri(t) et les vitesses vi(t) des particules déterminés à tout instant t > t0 par les les conditions initiales ri(t0) et vi(t0) " i et les forces Fi agissant sur les particules suivant les lois de la mécanique (Newton) : ri(t) : positions, point représentatif dans l'espace des phases x(t) = vi(t) : vitesses, si(t) : orientation des spins à chaque condition initiale du système correspond une trajectoire x(t) unique dans l'espace des phases

4 systèmes macroscopiques
pour connaître l'état du système il n'y a qu'à calculer les trajectoires ri(t), vi(t) en intégrant les équations de Newton mais ... système physique : N » 1023 atomes /gramme Þ grand nombre de degrés de liberté calcul des trajectoires impossible : stockage ( » 6 x bytes nécessaires pour chaque point) conditions initiales : temps pour écrire nombres à 1 GHz ? ( à 109 nombres par sec » d'années !!!!!! ) peu de variables "macroscopiques" ( pression, température, volume, aimantation ) la trajectoire microscopique évolue avec le temps mais les grandeurs macroscopiques ne varient pas états stationnaires : description probabiliste indépendante du temps

5 mécanique statistique
au cours de son évolution temporelle, le système visite tous les états microscopiques compatibles avec les contraintes macroscopiques on considère un ensemble de systèmes identiques, distribués dans l'espace des phases avec une densité de probabilités compatible avec les contraintes ê au lieu de calculer les propriétés moyennes sur la trajectoire des phases, on calcule les moyennes (statistiques, instantanées) sur un ensemble de points représentatifs du système la plupart des évolutions temporelles (microscopiques) présentent les mêmes propriétés macroscopiques : dans la limite des très grands systèmes, les trajectoires atypiques représentent une fraction négligeable des trajectoires possibles ê au lieu de calculer les propriétés moyennes sur une trajectoire particulière, on calcule les moyennes (statistiques) sur toutes les conditions initiales possibles, correspondant à autant de trajectoires possibles hypothèse ergodique : les moyennes temporelles le long de la trajectoire dans l'espace des phases sont égales aux moyennes d'ensemble dans l'espace des phases Question : quelle P(x) adopter pour l'ensemble statistique ?

6 paradigme : le modèle d'Ising

7 spins d'Ising (1) h magnétisme :
les particules (électrons, neutrons, molécules) possèdent un moment magnétique (spin) qui s'oriente suivant le champ magnétique orientation préférentielle (qui minimise l'énergie) : spin parallèle au champ aimantation (observable) : orientation moyenne des spins du système modèle d'Ising : proposé pour décrire les propriétés magnétiques des solides moment magnétique élémentaire (spin) : seulement deux orientations possibles ­ ( s=1) ou ¯ (s=-1) dans un champ magnétique h, les spins s'orientent parallèlement à h : si=signe(h) ou si h > 0 énergie : -si h énergie : N spins : aimantation : h "mal" orienté "bien" orienté

8 modèle d'Ising (2) Jik si sk spins en interaction :
les spins sk produisent un champ sur le spin si (qui se rajoute au champ externe) donné par : où les Jik sont les constantes d'interaction énergie du système de N spins en interaction : remarque : Jik si sk

9 modèle d'Ising (3) Jik si sk
cas simples : modèle de cristal paramagnétique Jik=0 modèle de système ferromagnétique : Jik=J > 0 unidimensionnel : chaîne de spins bidimensionnel : réseau carré interactions à portée infinie (champ moyen) modèle de système désordonné : Jik= aléatoires Jik si sk

10 applications à d'autres domaines (4)
modèle d'ordre-désordre dans les alliages si=1 : le site i est occupé par un atome de type A si=-1 : le site i est occupé par un atome de type B Jik=JAA, JAB ou JBB (Jik>0 si attraction, Jik<0 si répulsion) modèle de Hopfield de mémoire associative si=1 : le neurone i est actif si=-1 : le neurone i est inactif Jik= efficacité de la synapse entre les neurones modèles de "consensus" si=1 : opinion favorable si=-1 : opinion défavorable Jik= influence de l'individu k sur l'individu i ... voir la suite de cette École !

11 THE END présentation du modèle d'Ising

12 probabilités, information et entropie
x : variable décrivant l'état du système : probabilité que l'état du système soit x normalisation : quantité d'information associée à l'état x : information manquante avant d'apprendre que l'état est x information acquise si l'on "apprend" que l'état du système est x [ plus P(x) est petit et plus l'information si x se produit est grande ] [ si P(x)=1 ð s(x)=0 ] entropie associée à la distribution de probabilité P(x) manque d'information moyenne ignorance moyenne sur une variable x de probabilité P(x)

13 exemples : pile ou face si : information manquante : entropie :
ð si l'on prend le log en base 2, on choisit le bit comme unité de mesure bit = binary information unit ð il suffit d'un seul bit pour exprimer l'information manquante si ð moins d'entropie que la distribution équiprobable

14 description probabiliste "naïve"
spins d'Ising description probabiliste "naïve" h "mal" orienté "bien" orienté en absence de champ magnétique : entropie par spin : aimantation par spin : en présence d'un champ magnétique (énergie minimale) si h > 0 : entropie : 0 aimantation par spin :

15 principe du maximum d'entropie
comment attribuer des probabilités P(x) aux différents états x possibles ? principe du maximum d'entropie (Jaynes) : "la distribution de probabilités est celle qui maximise l'entropie, en respectant les contraintes macroscopiques" (lois de conservation, connaissances a priori, données empiriques, etc) on n'introduit aucune information arbitraire seules les informations connues introduisent des contraintes sur P(x)

16 MaxEnt Þ tous les états sont équiprobables
équiprobabilité distribution de probabilités P(x) en absence d'informations : maximiser sous la contrainte donne : où W est le nombre de réalisations possibles de la variable x si la seule contrainte est la normalisation , MaxEnt Þ tous les états sont équiprobables

17 ensemble microcanonique

18 système isolé : contraintes
l'énergie E(x)=E0 physique Þ conservation de le nombre de particules N=N0 contraintes sur P(x) MaxEnt : tous les états de N0 particules et d'énergie E0 sont équiprobables soit W(E0) le: nombre de micro-états x de N0 particules et d'énergie E0 Þ vérifie

19 ensemble microcanonique
entropie: remarque :

20 température définition : la température T du système est définie par :
situation "normale" : W(E0) augmente avec E0 ð généralement la température est positive (pas vrai si l'énergie est bornée)

21 modèle d'Ising paramagnétique (1)
N0 spins sans interactions, dans un champ magnétique h énergie ; aimantation description microcanonique : micro-état x = {s1,s2, ..., sN} ® {N+,N- } fraction de spins -1 : nombre d'états accessibles : formule de Stirling : entropie : h s=-1 s=+1 l'aimantation est imposée par E0

22 paramagnétique (2) l'entropie et l'énergie sont extensives E»N0 S»N0
température : si N_ ® 0 Þ T ® 0+ si N_ ® N0/2 Þ T ® ¥ si N_ ® N0 Þ T ® 0-

23 contact thermique deux sous-systèmes en contact thermique
N=N1+ N2 , énergie : E0= E1+ E2+ Eint avec E1 et E2 imposées interactions à courte portée : Eint»0 ð énergie additive : E0= E1+ E2 ð états possibles : ð entropie additive : ST = S(E1) + S(E2) £ S(E0) sous-système 1 sous-système 2 E1, N1 T1 E2, N2, T2

24 évolution vers l'équilibre
l'entropie change (augmente) au cours du temps : si 0 < T1 < T2 dE1/dt > 0 : E1 augmente (E2 décroît) si T1 < T2 < 0 ð l'énergie circule des parties à haute température vers celles à basse température (du plus "chaud" vers le plus "froid") jusqu'à ce que T1=T2 et ST = S(E0) si T1 < 0 < T2 dE1/dt < 0 : E1 décroît (E2 augmente) ð les températures négatives sont plus "chaudes" que les positives !

25 ensemble canonique

26 distribution canonique
le nombre de particules est fixe : N (N0 >> N) l'énergie peut fluctuer autour d'une moyenne áEñ >> E0 distribution de probabilités : maximiser sous les contraintes : donne la distribution canonique ou de Gibbs : fonction de partition

27 fonctions thermodynamiques
distribution canonique : énergie moyenne : entropie : s'expriment en termes de l'énergie libre : car ;

28 température interprétation du paramètre b :
si le système est en contact thermique avec un autre système (réservoir) et (système + réservoir) : isolés Þ température système = température réservoir probabilité du micro-état x du système : E(x) << E0 : par comparaison avec la distribution canonique : réservoir système E,N,T E0-E N0-N T

29 ising paramagnétique revisité
énergie : la fonction de partition se factorise : énergie libre : aimantation : les spins peuvent fluctuer : le comportement de M dépend du rapport bh=h/T

30 énergie libre on a imposé áEñ : cela a introduit un multiplicateur b (paramètre de Lagrange) b = b(áEñ) : detérminé (en principe) en inversant ® dépend de chaque problème à travers de E(x) il est convenable de considérer b comme un paramètre imposé par le réservoir : la quantité fondamentale est l'énergie libre où est la fonction de partition à l'équilibre Fb doit être minimale, car

31 fluctuations et limite thermodynamique

32 probabilité de E Probabilité que l'énergie du systèm soit E où
nombre d'états x / E(x)=E entropie microcanonique

33 énergie la plus probable
EM= énergie la plus probable : correspond à celle qu'aurait un système isolé à T=1/b (température du réservoir) elle est non nulle : effet de w(E), qui augmente rapidement avec E et compense la décroissance de l'exponentielle. EM vérifie la condition de maximum :

34 fluctuations de l'énergie
distribution d'énergies au voisinage de EM : fluctuations :

35 ordres de grandeur énergie extensive Þ entropie extensive
système de N0 particules Þ variance de E : la fluctuation relative de E est normale : même résultat pour toute quantité extensive qui peut fluctuer N.B. la température est intensive : limite thermodynamique

36 limite thermodynamique
la limite s'appelle limite thermodynamique les fluctuations s'annulent : une seule valeur de l'énergie avec probabilité 1 : Þ comportement typique dans cette limite : valeur la plus probable = valeur moyenne prédictions microcanoniques = prédictions canoniques pratique : on calcule les propriétés à N0 fini, et on passe à la limite Þ prédiction du comportement typique (se vérifie avec probabilité 1) phrases équivalentes : fluctuations négligeables, E=EM avec probabilité 1, DE=0, comportement typique

37 systèmes hors d'équilibre

38 évolution vers l'équilibre
système isolé hors d'équilibre : équation maîtresse : équilibre : indep. du temps bilan : probabilités de transition entre l'état x et l'état x'

39 principe du bilan détaillé
si le bilan se vérifie au niveau de chaque état (bilan détaillé) : Þ on peut déduire des propriétés des probabilités de transition système isolé ( E=E0, N=N0 ) à l'équilibre : distribution microcanonique bilan détaillé : système en contact avec un réservoir ( T=1/b, N=N0 ) à l'équilibre : distribution canonique

40 théorème H avec les relations de bilan détaillé on démontre explicitement que : un système isolé hors d'équilibre évolue de façon à augmenter son entropie un système en contact avec un thermostat évolue de façon à diminuer son énergie libre

41 simulations numériques
Algorithme de Metropolis : on fixe la température T= 1/b on part d'un état initial x, tiré au hasard, on calcule son énergie E(x) on réitère les pas 1 à 3 : 1. on tire au hasard un nouvel état x' 2. on calcule l'énergie E(x') 3. on calcule le rapport si r>1, E(x')< E(x) : on accepte le nouvel état x' si r<1, E(x')> E(x) : on l'accepte avec probabilité r évolution : vers des états de probabilité canonique, car le bilan détaillé est satisfait :

42 recuit simulé on initialise l'état des composants (p. ex. spins) du système au hasard ( b » 0 ) on repète le procédé suivant : on applique l'algorithme de Metropolis pendant un certain nombre d'itérations ( recuit ) ensuite on augmente b (on diminue T ) jusqu'à la température finale permet d'obtenir l'état de plus basse énergie

43 THE END


Télécharger ppt "Mécanique Statistique"

Présentations similaires


Annonces Google