La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

1 Plan du cours Introduction Notions de mécanique : force, énergie, travail, puissance… Température et chaleur Systèmes, transformations et échanges thermodynamiques.

Présentations similaires


Présentation au sujet: "1 Plan du cours Introduction Notions de mécanique : force, énergie, travail, puissance… Température et chaleur Systèmes, transformations et échanges thermodynamiques."— Transcription de la présentation:

1 1 Plan du cours Introduction Notions de mécanique : force, énergie, travail, puissance… Température et chaleur Systèmes, transformations et échanges thermodynamiques Premier principe de la thermodynamique Second principe de la thermodynamique Brève introduction aux probabilités et à la statistique Notions élémentaires de mécanique statistique Théorie de l’information Placez le curseur sur l’illustration dont vous désirez connaître l’origine.

2 2 Probabilités La théorie des probabilités fut développée initialement pour déterminer les stratégies à suivre dans les jeux de hasard. Une première analyse (inexacte) de ce genre de problème a été donnée par Luca Pacioli. Les premières solutions exactes sont dues à Blaise Pascal. Les XIX e et XX e siècles virent le développement axiomatique des probabilités.

3 3 Probabilités Luca Pacioli (1445-1517)  Blaise Pascal (1623-1662) 

4 4 Probabilités Andrey Kolmogorov (1903-1987)Aleksandr Khinchin (1894-1959)

5 5 Statistiques Les statistiques font largement appel aux outils développés en théorie des probabilités. Dans le cadre de ce cours, nous les considérerons comme des « probabilités appliquées. » Les premiers travaux dans ce domaine ont eu pour objet le calcul des annuités (De Witt) et les tables de mortalité (Graunt et Halley).

6 6 Statistiques Johan de Witt (1625-1672)  Edmund Halley (1656-1742) 

7 7 Mécanique statistique Les premiers travaux en physique statistique sont ceux de Daniel Bernoulli. Les fondements de la mécanique statistique sont dus à J.C. Maxwell, J.W. Gibbs et L. Boltzmann.

8 8 Mécanique statistique Daniel Bernoulli (1700-1782)James Clerk Maxwell (1831-1879)

9 9 Mécanique statistique Josiah Willard Gibbs (1839-1903)  Ludwig Boltzmann (1844-1906) 

10 10 Probabilités Les probabilités sont des nombres positifs, attachés chacun à un ensemble d’événements. Par exemple l’orientation d’une pièce jetée sur le sol peut être pile, p, face, f, ou sur la tranche, t. Si on dispose d’un ensemble complet d’événements mutuellement exclusifs, la somme de leurs probabilités est égale à l’unité. L’ensemble {p, f, t} est complet car il n’y a pas d’autre résultat possible. Comme une pièce ne peut atterrir simultanément dans deux positions différentes, ces résultats sont mutuellement exclusifs. On a dès lors

11 11 Probabilités On considère généralement que pour une pièce bien équilibrée p p = p f = 0.5 et p t = 0 (ce qui montre que les probabilités ne sont pas nécessairement strictement positives). Si tous les événements élémentaires ont même probabilité, la probabilité d’un événement composé est égale au rapport du nombre de cas favorables au nombre de cas possibles. Si chacune des faces d’un dé a une probabilité 1/6 d’apparaître, la probabilité d’observer un nombre pair est donnée par :

12 12 Probabilités De manière générale, la probabilité d’un événement composé est donnée par la somme des probabilités des événements élémentaires qui le composent :

13 13 Probabilités Si un événement peut être décomposé en événements incompatibles deux à deux, sa probabilité est égale à la somme des événements constitutifs. Ce n’est généralement pas le cas autrement.

14 14 Moyenne La moyenne d’une variable aléatoire susceptible de prendre la valeur x i avec une probabilité p i est donnée par : Si toutes les valeurs sont équiprobables on retrouve la moyenne arithmétique :

15 15 Moyenne La moyenne d’une somme de variables aléatoire est égale à la somme de leurs moyennes :

16 16 Moyenne Les indications fournies par la moyenne d’une variable aléatoire ne la caractérisent que de façon imparfaite. Si, par exemple, 1000 billets de loterie ont été vendus et que : (a) il y a un seul lot de 1000 € ou (b) il y a 500 lots de 2 €, il y aura un seul gagnant dans le premier cas et 500 dans le second. Supposant que chaque billet a la même probabilité 0.001 d’être acheté, on a cependant pour le gain moyen :

17 17 Variance Une grandeur permettant de mettre en évidence cette différence est la variance, définie comme étant la moyenne du carré de l’écart vis-à-vis de la moyenne et traditionnellement notée  2. Sa racine carrée, , est appelée écart-type. L’exemple pris précédemment donne :

18 18 Variance

19 19 Vérification Pour l’exemple des billets de loterie, on trouve :

20 20 Probabilités conditionnelles On définit la probabilité conditionnelle de A sachant B par : Exemple : une université compte 5000 étudiant(e)s, dont 400 sont biologistes, répartis en 300 filles et 100 garçons. La population de l’université comporte 2500 filles et 2500 garçons. Notons A l’événement « l’étudiant(e) est biologiste », B « l’étudiant(e) est un garçon » et A,B « l’étudiant(e) est biologiste et est un garçon ».

21 21 Probabilités conditionnelles On calcule aisément : La probabilité qu’un étudiant (donc un garçon) inconnu par ailleurs soit biologiste est donnée par :

22 22 Probabilités conditionnelles On remarque p(A,B) = p(B,A) : ces deux quantités donnent la probabilité qu’un(e) étudiant(e) pris(e) au hasard soit à la fois un garçon et inscrit en biologie, p(A/B)  p(B/A) : la première quantité donne la probabilité qu’un étudiant, choisi au hasard parmi les garçons, soit biologiste tandis que l’autre donne la probabilité qu’un(e) étudiant(e), choisi(e) au hasard parmi les biologistes, soit un garçon.

23 23 Dépendance - indépendance Si on ajoute un événement supplémentaire, D, « l’étudiant(e) a son anniversaire aujourd’hui », la connaissance de cette information ne nous est d’aucun secours pour déterminer s’il s’agit d’un(e) biologiste. La probabilité que cet(te) étudiant(e) soit biologiste est inchangée : Nous adopterons cette dernière relation comme définition de l’indépendance de A et D.

24 24 Additionner ou multiplier ? Si l’événement à décrire peut être obtenu de plusieurs façons incompatibles entre elles (ou exclusif), il faut additionner. Si on lance un dé, la probabilité d’obtenir un nombre pair est donnée par : S’il résulte au contraire de l’occurrence simultanée de plusieurs événements indépendants (et), il faut multiplier. Si on lance trois dés, la probabilité que le premier montre 2, le deuxième 4 et le troisième 6 est donnée par :

25 25 Distribution binomiale Nous rencontrerons souvent par la suite la distribution binomiale qui décrit les situations suivantes : on jette N pièces de monnaie, dont n p retombent en montrant le côté pile et n f montrent le côté face, parmi les N molécules de gaz parfait contenues dans une enceinte, n g occupent le compartiment de gauche et n d le compartiment de droite.

26 26 Distribution binomiale Cette description est valide pour autant que les événements considérés soient indépendants entre eux : le fait qu’une pièce particulière indique face ne dépend pas du côté montré par les autres, la présence d’une molécule de gaz parfait dans un des compartiments ne dépend pas de l’emplacement des autres molécules.

27 27 Distribution binomiale Si on répète N fois une expérience admettant deux résultats et que les répétitions soient indépendantes entre elles, la probabilité d’observer n 1 fois le premier résultat et n 2 = N – n 1 fois le deuxième est donnée par : On vérifie

28 28 D. binomiale - Moyenne

29 29 D. binomiale - variance Partant de on procède au calcul du seul terme inconnu du membre de droite :

30 30 D. binomiale - variance Rassemblant les fragments, on trouve : On observe que cette expression est symétrique sur les deux indices et que les deux variables n 1 et n 2 ont par conséquent la même variance.

31 31 Le grand écart

32 32 Le grand écart Si on jette N pièces équilibrées, en moyenne N / 2 parmi elles présenteront le côté face et N / 2 le côté pile, en application de : On ne s’étonnera cependant pas si n f  N / 2. Si on jette 4 pièces, on ne sera pas surpris d’observer n f = 3 et n p = 1. Si on jette 100 pièces, on ne s’attendra pas non plus à observer n f = 50 et n p = 50. Quelle est la répartition correspondant à n f = 3 et n p = 1 pour N = 4 ?

33 33 Le grand écart S’agit-il de n f = 51 (moyenne dépassée d’une unité) ? n f = 75 (trois quarts du total) ? n f = 99 (toutes sauf une) ? Intuitivement, aucune de ces réponses ne paraît satisfaisante. Les réponses correspondantes pour des valeurs encore plus grandes de N paraissent de plus en plus aberrantes. Les outils permettant de répondre de façon rigoureuse à ce genre de question nécessitent une connaissance plus approfondie de la théorie des probabilités. Nous ferons appel à la relation de Bienaymé-Tchebychev, que nous admettrons sans démonstration.

34 34 Bienaymé-Tchebychev Irénée Bienaymé (1796-1878).Pafnuty Chebyshev (1821-1894).

35 35 Bienaymé-Tchebychev Cette relation est peut-être plus parlante sous la forme Elle montre que l’unité naturelle pour apprécier la distance séparant un résultat observé de sa valeur moyenne est l’écart-type, .

36 36 Bienaymé-Tchebychev On peut encore écrire

37 37 Bienaymé-Tchebychev La robustesse de cette formule, qui ne suppose aucune condition autre que l’existence de le moyenne et de la variance, fait aussi sa faiblesse, car elle ne fournit d’indication utiles que pour de grands écarts vis à vis de la moyenne. En effet, pour des écarts inférieurs à un écart-type (t ≤ 1) la borne trouvée est négative. La relation nous dit dans ce cas qu’une certaine probabilité est supérieure à un nombre négatif, ce qui est exact mais ne nous apprend rien que nous ne sachions déjà.

38 38 Bienaymé-Tchebychev Pour l’exemple que nous avons choisi, Si la formule de BT ne nous permet pas de répondre exactement à la question posée, elle nous permet cependant d’estimer la probabilité d’un écart vis-à-vis de la moyenne supérieur à une valeur donnée.

39 39 Bienaymé-Tchebychev Pour t = 1.01 et N = 4, on trouve Résultat exact mais de peu d’intérêt puisque la valeur exacte est aisément calculable et vaut 0.875. Si on s’intéresse à N = 100, on trouve

40 40 Bienaymé-Tchebychev L’utilité de la relation de BT se manifeste dans le cas de nombre bien plus grands, tels ceux que nous rencontrerons en mécanique statistique. Si par exemple N = 10 28, t = 10 7 et p = 0.5 : Il est donc extrêmement improbable d’observer un écart relatif à la moyenne supérieur à 0.5  10 21 / 0.5  10 28 = 10 -7. Nous tirerons (prudemment) parti de cette propriété par la suite en admettant à l’occasion


Télécharger ppt "1 Plan du cours Introduction Notions de mécanique : force, énergie, travail, puissance… Température et chaleur Systèmes, transformations et échanges thermodynamiques."

Présentations similaires


Annonces Google