Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
Publié parMarie-Josèphe Olivier Modifié depuis plus de 9 années
2
III Probabilités ✔ Mots clés : épreuve, événement, probabilité, probabilité conditionnelle, théorème de Bayes, événements indépendants ✔ Savoir estimer les probabilités de quelques cas simples ✔ Connaître les principaux pièges posés par les statistiques
3
Induction - Déduction Général (principes) Particulier (applications) Déduction Général Particulier Induction
4
La démarche statistique est inductive Population Échantillon Induction On parle aussi d'inférence statistique
5
Le problème de l'induction La population présente une grande variabilité. Cela va empêcher de conclure avec certitude sur la population à partir des données acquises sur un échantillon. Mais on a tout de même acquis de l'information!
6
Le problème de l'induction Exemple : On veut vérifier que la pose d'un engrais a un effet sur la taille des plantes traitées Exemple 1 Exemple 2 Faible variabilité => peu d'ambiguïté Forte variabilité => on a besoin de statistiques poussées conclure
7
L'apport des probabilités Variabilité ⇒ Incertitude Données sur l'échantillon ⇒ Information La théorie des probabilités permet de valoriser l'information tout en prenant en compte l'incertitude Comparez : ✗ «Cette voiture peut encore rouler un bon nombre de kilomètres » ✔ « Je vends une bonne centaine de voitures de ce type chaque année, et je peux dire que vous avez 95% de chances de rouler entre 20.000 et 40.000 km sans panne majeure. »
8
Probabilités Notions Lois de probabilité Probabilités conditionnelles Paradoxes
9
III – 1) Qu'est ce qu'une probabilité ? ✔ Mots clés : Épreuve, événement, probabilité
10
Cadre de la notion de probabilité Lorsqu'on parle d'une probabilité on doit impérativement indiquer : ➢ de quelle épreuve aléatoire on traite ➢ à quel événement se rapporte cette probabilité
11
Épreuve Épreuve = Expérience reproductible, mais dont le résultat n'est pas prévisible, et pour laquelle on peut définir l'ensemble des résultats possibles.
12
Épreuve Épreuve ? OuiNon Vérification si une côte a été polluée par une marée noire Détermination du groupe sanguin d'un individu pris au hasard Sondage : qu'avez vous fait entre 20h et 21h hier soir ? ✗ Non reproductible ✗ Ensemble des résultats possibles non connus ✔
13
Événement Événement = sous-ensemble des résultats possibles de l'épreuve. Événement élémentaire = événement composé d'un seul résultat. Univers des événements = ensemble de tous les résultats possibles de l'épreuve
14
Événement Événements 4 événements possibles A,B,AB,O Détermination du groupe sanguin de deux individus pris au hasard 16 événements élémentaires : (A,A),(A,B),(A,AB),...,(B,A),... mais aussi «le premier individu est du groupe A » composé de 4 éléments Concentration de Na + dans un échantillon d'eau quelconque du littoral français Une infinité d'événements mais dont on sait ≥ 0 Détermination du groupe sanguin d'un individu pris au hasard
15
Il y a de l'ordre dans le hasard !
16
Loi empirique des grands nombres Si on répète l'épreuve un grand nombre de fois n en comptabilisant le nombre d'occurrences de l'événement A, n A le rapport n A /n tend vers une valeur comprise entre 0 et 1. Cette valeur est la probabilité associée à l'événement A
17
Définition fréquentiste de la probabilité Événement A associé à l' épreuve E = limite du rapport du nombre d'occurrences de l'événement A sur le nombre d'épreuves E effectuées
18
La probabilité est bornée 0 ≤n A ≤n ⇒ 0≤p(A)≤1 Événement certain = événement dont la probabilité vaut 1 Événement impossible = événement dont la probabilité vaut 0 Exemples : p(U)=1 p( ∅ )=0
19
Probabilité a priori Avant même l'exécution de l'épreuve, il existait une probabilité que l'événement se réalise. C'est la probabilité a priori. L'existence de cette limite en est une démonstration expérimentale.
20
Probabilité a priori Sous certaines hypothèses (souvent d'équiprobabilité) on peut déterminer a priori les probabilités d'occurrence d'un événement. Exemple : lancer de dé, jeu du « pile ou face » On emploie alors souvent les mathématiques combinatoires (combinaisons, arrangements,...) C'est ce que vous avez fait en terminale !
21
Paradoxe des camions prospecteurs Un forage pétrolier coûtant cher, on se livre au préalable à des campagnes de prospection estimant une probabilité de trouver du pétrole ou non en forant à un endroit donné. Cette probabilité conduira en fonction de sa valeur, des coûts, et des réserves estimées (en probabilité elles aussi) à la décision de forer ou non. Un premier camion prospection, en début de campagne de mesure : Probabilité de présence de pétrole : 57% Un deuxième camion prospection, en fin de campagne de mesure : Probabilité de présence de pétrole : 24% Le foreur : « Il n'y a pas de pétrole » Probabilité de présence de pétrole : 0% Quelle est la vraie probabilité ?
22
Attention au terme « probabilité » Ce paradoxe se résout en remarquant que la notion d'épreuve ne s'applique pas ici. Il n'y a pas de hasard. La «probabilité » décrite ici est simplement due à un manque de connaissance. Pour manier ce concept, on utilise la théorie des possibilités (L. Zadeh, 1978), qui a un formalisme similaire.
23
III – 2) Probabilité de combinaisons d'événements ✔ Mots clés : {Union, Intersection,Complémentaire}, Loi des probabilités totales
24
Combinaison d'événements On peut combiner les événements : Union Intersection Complémentaire
25
Union d'événements Union des événements A et B = A ∪ B= Événement réalisé lorsque A ou B est réalisé. Exemple : L'individu est de groupe sanguin A ou B Diagramme de Venn :
26
Intersection d'événements Intersection des événements A et B = A∩B= Événement réalisé lorsque A et B sont réalisés simultanément Exemple : Le groupe sanguin de cet individu est O = {Le groupe sanguin de cet individu est O ou A} ∩ {Le groupe sanguin de cet individu est O ou B} Diagramme de Venn :
27
Événements incompatibles Événements incompatibles = La réalisation de l'un entraîne la non- réalisation de l'autre. Leur intersection est nulle A∩B= ∅ (similaire à 2 ensembles disjoints) Exemple : {Le groupe sanguin de cet individu est A} et {Le groupe sanguin de cet individu est B} Diagramme de Venn :
28
Événement contraire Événement contraire de A = Ã = Événement tel que : 1) son union avec A donne l'univers des événements 2) Il est incompatible avec A Exemple : A={L'individu est de groupe sanguin A} Ã ={L'individu n'est pas de groupe sanguin A} Diagramme de Venn : A Ã
29
Lois de Morgan
30
Exemple On tire au hasard un individu dans une population Statistiques des décès en France en 2000 (INSEE) : En statistiques descriptives, on avait appelé ce tableau tableau de contingence Cancer du poumon Autres causes 4395 254415 Femme 22287 272040 Homme
31
Table de contingence Dans le cas du tirage aléatoire, il se récrit en terme de probabilités : Cancer Autres causes Total 0.8% 46% 46.8% Femme 4% 49.2% 1/2 Homme 4.8% 95.2% 100% Total
32
Table de contingence Nombre de personnes mortes en France en 2000 qui sont des femmes ou des malades du cancer du poumon Statistiques des décès en France en 2000 (INSEE) : Cancer du poumon Autre cause 4395 254415 Femme 22287 272040 Homme
33
Probabilité d'une union d'événements On peut remarquer que dans ce cas :
34
Loi des probabilités totales
35
Si deux événements A et B sont incompatibles : Notamment :
36
III – 3) Probabilités conditionnelles Mots clés : Loi des probabilités composées, probabilité conditionnelle, événements indépendants, théorème de Bayes.
37
Probabilité conditionnelle Si on applique des restrictions à l'épreuve, (typiquement en supposant qu'un événement B est déjà réalisé) la probabilité de réalisation de l'événement A pour la nouvelle épreuve est modifiée. La nouvelle probabilité est appelée probabilité conditionnelle de l'événement A sachant B. On note p(A/B)
38
Probabilité conditionnelle Exemple : On tire au hasard un individu dans une population Statistiques des décès en France en 2000 (INSEE) : Quelle est la probabilité que cet individu - soit une femme décédée des suites d'un cancer du poumon ? - soit décédée des suites d'un cancer du poumon sachant que c'est une femme ? Cancer du poumon Autre cause 4395 254415 Femme 22287 272040 Homme
39
Probabilité conditionnelle Quelle est la probabilité que cet individu soit une femme décédée des suites d'un cancer du poumon ? Le tirage est équiprobable. On l'effectue sur l'ensemble des personnes décédées : 4395+22287+254415+272040=530850 On compare à l'ensemble des personnes décédées qui 4395/530850*100=0.8% Autre cause 4395 254415 22287 Cancer du poumon Femme 272040 Homme sont des femmes et ont mortes d'un cancer du poumon ✗ Ce n'est pas une probabilité conditionnelle C'est p(cancer ∩femme )
40
Probabilité conditionnelle Quelle est la probabilité que cet individu soit décédée des suites d'un cancer du poumon sachant que c'est une femme ? 1) On a restreint l'épreuve à la population de femmes décédées 4395+254415= 258810 2) On regarde la proportion de cancers des poumons dans cette population 4395/258810*100=1.7% Autre cause 4395 254415 22287 Cancer du poumon Femme 272040 Homme ✓ C'est une probabilité conditionnelle C'est p(cancer/femme)
41
Probabilité conditionnelle On peut remarquer que dans ce cas :
42
Loi des probabilités composées
43
Théorème de Bayes Loi des probabilités composées Loi des probabilités totales Théorème de Bayes
44
Ce théorème est le fondement de l'inférence bayésienne. Ce terme un peu compliqué recouvre grossièrement le champ du diagnostic. (diagnostic médical, pannes, filtres anti-spam)
45
Théorème de Bayes Exemple : Test médicaux On vous fait passer un test de dépistage d'un virus touchant 1% de la population. Il est positif ! Des essais en laboratoire effectués sur des malades atteints du virus ont montré que le test était positif dans 80% des cas. Par contre, il se révélait négatif dans 90% des cas lors des tests sur des individus sains. Quelle était la « probabilité » d'être atteint avant le test ? Quelle est la « probabilité » d'être atteint après le test ?
46
Événements indépendants Jeu de « pile ou face » J'ai lancé 10 fois la pièce et j'ai eu 10 fois « pile » Quelle est la probabilité de tirer « face » au prochain coup? ½ Que j'ai tiré « pile » ou « face au coup précédent ne change rien (processus markovien)
47
Événements indépendants A est indépendant de B si
48
Loi des probabilités composées (2) Si A et B sont deux événements indépendants, la loi des probabilités composées devient
49
Événements indépendants La probabilité d'une personne de mourir du cancer des poumons est-il indépendant de son sexe ? Non p(cancer/femme) = 1.7% p(cancer/homme) = 7.5% Attention, la non-indépendance est le signe d'une corrélation, et non d'une causalité
50
Événements indépendants ? Attention aux tirages aléatoires dans des populations 2 tirages aléatoires successifs dans une population ne sont pas indépendants. C'est surtout visible si la population est de petite taille Exemple : On prend un individu au hasard dans un groupe. C'est un homme. Quelle est la probabilité que le prochain individu tiré au hasard soit une femme ? Groupe A = {6 hommes, 4 femmes} Groupe B = {6000 hommes, 4000 femmes}
51
III – 4) Les pièges des probabilités ✔ Mots clés : Loi des probabilités totales, Loi des probabilités composées, probabilité conditionnelle, théorème de Bayes.
52
Les pièges des probabilités Les probabilités vous réservent beaucoup de surprises ! ✗ On ne connaît pas bien les ordres de grandeur ✗ On ne précise pas toujours les épreuves associées ➔ C'est source de confusion (Probabilités conditionnelles) ✗ On n'insiste pas assez sur l'aspect répétitif de ces expériences. ✗ L'événement dont on parle n'est pas pertinent ✗ Des événements que l'on croit indépendants ne le sont pas Ces carences sont souvent utilisées lors de la manipulation d'opinion.
53
Ordre de grandeur mal connu Paradoxe de l'anniversaire « Incroyable. Lors de ma soirée d'anniversaire, il y avait deux personnes ayant la même date de naissance » La probabilité pour que ceci arrive est de plus de 50% (démontrez le en calculant la probabilité). Ce n'est pas incroyable
54
Confusion des épreuves Paradoxe des enfants Une famille chez qui on se rend en visite a deux enfants, mais on ne sait pas de quel(s) sexe(s). On sonne à la porte. Un garçon vient ouvrir. Quelle est la probabilité que l'autre soit un garçon aussi ? 1/3 Avant que l'enfant ne vienne ouvrir, il y avait 4 possibilités (fille, fille),(garçon,fille),(fille,garçon),(garçon,garçon) Seule la première possibilité a été éliminée, d'où 1/3 Vous avez pensé ½ ? Attention à une mauvaise lecture de l'énoncé. L'enfant est le premier à ouvrir la porte, et non le premier à naître (il ne resterait alors que (garçon,fille) et (garçon,garçon), d'où le 1/2)
55
Pertinence de l'événement Paradoxe de la voyante « L'astrologie a raison. La rubrique astrologie de mon journal a prédit hier une mauvaise chance à tous les gens de signe balance. Or justement mon petit frère -balance- a été blessé en voiture. » 2) Il y a eu en 2003, 111 135 blessés de la route. Soit en moyenne, 304.5 blessés par jour. Supposant que 1/12 des blessés sont balances, ça fait une moyenne 25.3 personnes de signe balance blessées sur la route ce jour-là. La prédiction « des balances seront accidentées sur les routes aujourd'hui » sera donc certainement réalisée. 1) La « prédiction » est très vague
56
Aspect répétitif de l'épreuve Paradoxe de la pilule contraceptive « Je suis tombée enceinte alors que le taux de réussite de ma pilule contraceptive est de 99.9%. Ce n'est vraiment pas de chance » Ce taux de réussite impressionnant est en fait calculé par rapport. En une année, avec une moyenne de 2 rapports par semaine, quelle est la probabilité d'échec de la contraception ? 1-0.999 (52*2) ~ 10%
57
IV Fonction d'une variable aléatoire ✔ Mots clés : Variable aléatoire, distribution de probabilité, fonction de répartition, fonction de densité de probabilité.
58
Échantillon = résultat d'une épreuve Échantillon : valeurs x i de la variable x Population : valeurs X i correspondantes ? L'échantillon étant tiré aléatoirement parmi la population, la valeur X n'est connu qu'avec une certaine probabilité X devient alors une variable aléatoire.
59
Distribution de probabilité L'échantillon a été tiré de manière aléatoire parmi la population. On a donc effectué une épreuve. La distribution de fréquence relative associée à X va donc tendre vers une distribution de probabilité P(X) lorsque le nombre de réalisation de l'épreuve (de tirages d'échantillons) tend vers l'infini.
60
Exemple Dans un sac, se trouve du blé, dont la moitié des grains sont abîmés Je veux estimer la qualité de la production Je prends 3 grains dans le sac : ➔ Quelle est l'épreuve ? ➔ Quels sont les événements possibles ? ➔ Quelles sont leurs probabilités? ➔ Donner la distribution de probabilités sous forme d'un tableau.
61
Fonction de répartition (d'une variable aléatoire) = (souvent notée F) Fonction des probabilités cumulées F(x 0 ) = p(x ≤ x 0 )
62
Solution graphique du problème du sac
63
Cas des variables continues Rappel de la définition de la distribution de probabilité « La distribution de fréquence relative associée à X va donc tendre vers une distribution de probabilité P(X) lorsque le nombre de réalisation de l'épreuve (de tirages d'échantillons) tend vers l'infini. » Dans le cas d'une variable continue, la notion de fréquence n'a de sens que pour un intervalle
64
Cas des variables continues On ne peut donc définir une probabilité P(x,dx), que pour l'intervalle [x,x+dx] Or, Cette fonction limite est appelée fonction de densité de probabilité p(x)
65
Cas des variables continues
66
Caractérisation d'une distribution On a donc défini une fonction, x → P(x) dont on aimerait préciser ✔ la valeur centrale ✔ la dispersion autour de cette position ✔ L'asymétrie, l'aplatissement,...
67
Espérance d'une distribution Espérance d'une distribution = Moyenne de cette distribution Le terme vient de la théorie des jeux, pour désigner l'espérance des gains. Les jeux de hasard sont toujours conçus pour avoir une espérance négative DiscretContinu On notera aussi la moyenne d'une distribution
68
Variance d'une distribution Moment d'ordre k d'une distribution = E(x k ) Variance d'une distribution = Moment centré d'ordre 2 DiscretContinu On notera aussi 2 la variance d'une distribution
69
IV – 1) Quelques distributions de variables aléatoires discrètes ✔ Mots clés : Loi binomiale, Loi de Poisson
70
Quelques distributions discrètes Les plus importantes sont : ➢ La distribution binomiale ➢ La distribution hypergéométrique ➢ La distribution de Poisson Il y a en plein d'autres (distribution binomiale négative, distribution géométrique, distributions multinômiales,...)
71
Retour sur le problème du sac Nous pouvons compliquer le problème du sac : - en prenant un nombre n quelconque de grains - en ayant un rapport p=grains abîmés/grains sains différent de ½ Quelle est la probabilité d'avoir x grains abîmés ?
72
Retour sur le problème du sac Quelle est la probabilité d'avoir x grains abîmés ? a) Pour tirer dans l'ordre : x fois un grain abîmé (n-x) fois un grain sain Chaque tirage est indépendant, ça nous donne donc p x (1-p) n-x
73
Retour sur le problème du sac b) p x (1-p) n-x a été calculé pour (a,a,...,a,s,s,...,s) Pour (a,s,a,...,a,s,s,...,s), c'est p (1-p) p x-1 (1-p) n-x-1 =p x (1-p) n-x La probabilité recherchée sera donc p x (1-p) n-x fois le nombre de combinaisons avec x grains abîmés et (n-x) grains sains
74
Rappel de probabilités de terminale Permutation = changement de l'ordre Exemple de permutation : {1,2,3} {2,1,3} Dans un groupe à n éléments (un n-uplet), le nombre de permutation possibles est n! = n ×( n-1) ×( n-2) ×... × 3 × 2 × 1 On appelle n! la factorielle de n.
75
Rappel de probabilités de terminale Arrangement de n éléments pris p à p = On collecte p éléments parmi n valeurs possibles, en interdisant deux valeurs identiques mais l'ordre importe. Exemple : n=3 valeurs possibles a,b,c p=2, groupes de 2 éléments. ab,ac,ba,bc,ca,cb Le nombre d'arrangements possibles est
76
Rappel de probabilités de terminale Combinaison de n éléments pris p à p = On collecte p éléments parmi n valeurs possibles, en interdisant deux valeurs identiques mais l'ordre n'importe pas. Exemple : n=3 valeurs possibles a,b,c p=2, groupes de 2 éléments. ab,bc,ca Le nombre de combinaison possibles est
77
Retour sur le problème du sac c) La distribution de probabilité recherchée est p x (1-p) n-x fois le nombre de combinaisons avec x grains abîmés et (n-x) grains sains : C'est ce qu'on appelle une distribution binomiale
78
Distribution binomiale La distribution binomiale modélise le nombre de succès lors d'épreuves répétées réalisées dans une population infinie telles que : - seuls deux événements sont possibles - la probabilité de chaque épreuve est constante - toutes les épreuves sont indépendantes
79
Distribution binomiale x : nombre de réussites n : nombre d'épreuves p : probabilité de réussite
80
Distribution binomiale Moyenne Variance
81
Loi binomiale Moyenne Variance La moyenne et la variance augmentent avec le nombre d'épreuves
82
Loi binomiale La dissymétrie augmente si p est proche de 0 ou 1 Moyenne Variance
83
Loi binomiale La loi binomiale est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab) qui vous calcule Bi(x,n,p) et sa fonction de répartition
84
Distribution de Poisson Elle est utilisée quand il s'agit de compter le nombre d'occurrences d'un événement rare durant une période donnée. Exemple : compteur Geiger, queues dans les magasins, nombre de défauts dans un disque dur.
85
Distribution de Poisson x : nombre d'événements par période : nombre d'événements moyen par période
86
Distribution de Poisson Moyenne Variance
87
Distribution de Poisson Moyenne Variance
88
Distribution hypergéométrique La loi hypergéométrique modélise le nombre de succès lors d'épreuves répétées réalisées sans remise dans une population de taille finie : - que seuls deux événements sont possibles - la probabilité de chaque épreuve est constante - toutes les épreuves sont indépendantes
89
Distribution de Poisson La loi de Poisson est un cas limite de la distribution binomiale. La distribution binomiale est bien approximée par la distribution de Poisson si p 50
90
IV – 2) Quelques distributions de variables aléatoires continues ✔ Mots clés :
91
IV – 2) Quelques distributions de variables aléatoires continues ✔ Mots clés :
92
Quelques distributions continues Les plus importantes sont : ➢ La loi normale ➢ La distribution du 2 (chi-deux) Il y a en plein d'autres (exponentielle, Fisher, Gamma, Student,...)
93
Quelques distributions continues À grand paramètre, les distributions binomiale et de Poisson tendent vers une belle « courbe en bosse » Cette courbe typique s'appelle la distribution normale
94
Distribution normale x : variable aléatoire : moyenne : écart-type
95
Distribution normale Moyenne Variance
96
Distribution normale Moyenne Variance
97
Distribution normale Moyenne Variance
98
Distribution normale Moyenne Variance
99
Distribution normale
100
Approximation par la loi normale La loi normale approxime bien les 2 fonctions que nous avons vues si Loi binomialeLoi de Poisson
101
IV – 3) Distribution d'une combinaison de variables aléatoires ✔ Mots clés : Loi du 2, de Student, de Fisher-Snedecor
102
Changement de variable Pour une variable aléatoire, on associe une distribution de probabilité Si on prend une autre variable aléatoire dépendante de cette variable que peut-on dire de sa distribution de probabilité ?
103
Standardisation (Rappel de stat. descr.) Centrage Standardisation Position Amplitude Dispersion Quartiles Variance Écart- type Z est aussi appelée variable centrée réduite
104
Exemple de changement de variable Ce changement de variable se transpose au cas des variables aléatoires X est un variable aléatoire associée à une distribution de probabilité de moyenne et de variance 2 On peut définir alors la variable centrée réduite associée Z La moyenne de la distribution associée à Z est nulle Sa variance vaut 1
105
Distribution normale standardisée Moyenne Variance
106
Combinaisons de variables aléatoires Il est tentant d'associer deux variables aléatoires Exemple du sac : On prend trois grains. À chaque grain tiré, on associe une variable aléatoire dans {0,1} On peut aussi prendre la variable aléatoire «nombre de grains abîmés » qui est la somme de ces trois variables aléatoires Attention toutefois à ce que toutes les variables soient indépendantes
107
Variables indépendantes Deux variables x et y sont indépendantes si Alors
108
Application directes aux statistiques On se place dans la cadre d'épreuves répétées On a donc n variables aléatoires, X 1, X 2,X 3,...X n de même loi de probabilité de moyenne et de variance ² On peut donc définir deux nouvelles variables Somme : S n =X 1 + X 2 +X 3+...+X n Moyenne :
109
Théorème central limite On a alors Somme Moyenne
110
Théorème central limite On montre en fait que les distributions de probabilités associées à la variable converge vers une distribution normale centrée (=0 et =1) quand n∞
111
Théorème central limite On vient de voir une exemple du théorème central limite avec la loi binomiale
112
Approximation par la loi normale Un phénomène est bien approximé par la distribution normale si : ✔ il dépend de nombreux facteurs ✔ que ces facteurs sont indépendants entre eux ✔ que les effets aléatoires de ces facteurs sont cumulatifs ✔ que les variations de ces facteurs sont faibles
113
Lois dérivées de la loi normale ➢ Loi du 2 (chi-deux) ➢ Loi de Student ➢ Loi de Fisher-Snedecor
114
Variable du 2 Soient X 1, X 2,X 3,...X n n variables normales centrées réduites La variable de Pearson ou du 2 vaut On dit alors qu'elle a n degrés de liberté La variable de Pearson est souvent utilisée pour comparer 2 séries de variables
115
Degré de liberté Le degré de liberté de 2 est le nombre de variables sommées diminué du nombre de relations entre ces variables Exemple X 1 = nombre de grains abîmés X 2 = nombre de grains sains P(X 1 )+P(X 2 ) =1 2 =X 1 2 +X 2 2 n'a qu'un degré de liberté
116
Loi du 2 La densité de probabilité d'une variable 2 de degrés de liberté est connue (ses valeurs sont stockées dans des tables) On l'appelle loi de 2 (ou de Pearson) de degré Elle a une expression relativement complexe rarement directement utilisée
117
Loi du 2 Lorsque ∞, la loi du 2 converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit
118
Loi du 2 La loi du 2 est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)
119
Variable de Student Soient Z une variable centrée réduite et 2 une variable de Pearson de degrés de liberté La variable est une variable aléatoire suivant une loi de Student avec degrés de liberté La variable de Student sera utilisée pour comparer deux moyennes
120
Loi de Student La loi de Student avec degrés de liberté est connue (ses valeurs sont stockées dans des tables) Elle a une expression relativement complexe rarement directement utilisée
121
Loi de Student Lorsque ∞, la loi de Student converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit
122
Loi de Student La loi de Student est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)
123
Variable de Fisher Soient 1 2 et 2 2 deux variables de Pearson, respectivement de degrés de liberté 1 et 2 La variable est une variable aléatoire suivant une loi de Fisher-Snedecor à 1 et 2 degrés de liberté La variable de Fisher sera utilisée pour comparer deux variances
124
Loi de Fisher-Snedecor La loi de Fisher-Snedecor à 1 et 2 degrés de liberté est connue (ses valeurs sont stockées dans des tables) Elle a une expression complexe rarement directement utilisée
125
Loi de Student Lorsque ∞, la loi de Student converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit
126
Loi de Student La loi de Student est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)
127
Sources de variabilité (1) Imprécision La mesure est répétée deux fois dans les mêmes conditions expérimentales Les résultats sont légèrement différents. Ce n'est pas une erreur mais la résultante de toute une série d'événements incontrôlés
128
Sources de variabilité Imprécision ≠ Inexactitude Si la mesure effective diffère de la valeur réelle, on parle alors d'inexactitude. Elle souvent due à une erreur dans le protocole expérimental. Elle est aussi introduite lorsqu'on étudie un échantillon peu représentatif de la population. Attention : l'inexactitude peut être masquée par l'incertitude
129
Sources de variabilité (2) Différences individuelles Les éléments de l'échantillon sont différents.
130
Sources de variabilité (3) Différences factorielles Les éléments placés dans un environnement différent ont des propriétés différentes. On cherche souvent à caractériser de telles différences.
131
Sources de variabilité Variabilité résiduelle = imprécision + variabilité individuelle Variabilité totale = variabilité résiduelle + variabilité factorielle
132
Sources de variabilité Population Facteur = a Facteur = b Facteur = c El 1 El 2 El 3 Incertitude Variabilité individuelle Variabilité factorielle Bruit Information
133
Repérer les sources de variabilité (1) Imprécision : faire la mesure 2 fois, dans les mêmes conditions, sur le même élément. (2) Variabilité individuelle : faire la mesure dans les mêmes conditions, sur au moins 2 éléments. (3) Variabilité factorielle : faire la mesure dans les mêmes conditions, sur au moins 2 éléments sur 2 niveaux de ce facteur.
134
Réduire les sources de variabilité (1) Imprécision : Améliorer la technique de mesure (2) Variabilité individuelle : Standardiser l'expérience en ne mélangeant pas différentes groupes dans l'étude. Bien définir la population (3) Variabilité factorielle : Irréductible. La variabilité factorielle est souvent ce que l'on veut mettre en évidence.
135
Stratégie de l'estimation Population N éléments Paramètres, 2,... Échantillon n éléments Paramètres,s 2,... Probabilités C n p échantillons de taille n Variables aléatoires X,S 2,... Sondage Constitution des tous les échantillons possibles Estimation
136
Paradoxe des statistiques Une étude cherche à préciser si un facteur a un effet sur une variable. On pourra : - éventuellement prouver la validité de l'hypothèse - mais jamais l'infirmer ! En effet, dans ce dernier cas, on ne pourra pas conclure car bruit > signal
137
Test d'hypothèse Test d'hypothèse = détermination de la plausibilité qu'un paramètre d'un modèle prenne des valeurs différentes dans des populations distinctes, afin de mettre en évidence, ou non, un effet d'un facteur expérimental sur une population.
138
Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1
139
Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1
140
Test d'hypothèse Test d'hypothèse = détermination de la plausibilité qu'un paramètre d'un modèle prenne des valeurs différentes dans des populations distinctes, afin de mettre en évidence, ou non, un effet d'un facteur expérimental sur une population.
141
Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1
142
Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1
143
Paramètres de la distribution de probabilité Pour un échantillon donné, on avait obtenu une distribution de valeurs. On avait pu définir une série de paramètres : Moyenne Si on répète la mesure N E fois, on obtient
144
Paramètres de la distribution de probabilité Pour un échantillon donné, on avait obtenu une distribution de valeurs. On avait pu définir une série de paramètres : Moyenne Variance
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.