La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

III Probabilités ✔ Mots clés : épreuve, événement, probabilité, probabilité conditionnelle, théorème de Bayes, événements indépendants ✔ Savoir estimer.

Présentations similaires


Présentation au sujet: "III Probabilités ✔ Mots clés : épreuve, événement, probabilité, probabilité conditionnelle, théorème de Bayes, événements indépendants ✔ Savoir estimer."— Transcription de la présentation:

1

2 III Probabilités ✔ Mots clés : épreuve, événement, probabilité, probabilité conditionnelle, théorème de Bayes, événements indépendants ✔ Savoir estimer les probabilités de quelques cas simples ✔ Connaître les principaux pièges posés par les statistiques

3 Induction - Déduction Général (principes) Particulier (applications) Déduction Général Particulier Induction

4 La démarche statistique est inductive Population Échantillon Induction On parle aussi d'inférence statistique

5 Le problème de l'induction La population présente une grande variabilité. Cela va empêcher de conclure avec certitude sur la population à partir des données acquises sur un échantillon. Mais on a tout de même acquis de l'information!

6 Le problème de l'induction Exemple : On veut vérifier que la pose d'un engrais a un effet sur la taille des plantes traitées Exemple 1 Exemple 2 Faible variabilité => peu d'ambiguïté Forte variabilité => on a besoin de statistiques poussées conclure

7 L'apport des probabilités Variabilité ⇒ Incertitude Données sur l'échantillon ⇒ Information La théorie des probabilités permet de valoriser l'information tout en prenant en compte l'incertitude Comparez : ✗ «Cette voiture peut encore rouler un bon nombre de kilomètres » ✔ « Je vends une bonne centaine de voitures de ce type chaque année, et je peux dire que vous avez 95% de chances de rouler entre 20.000 et 40.000 km sans panne majeure. »

8 Probabilités Notions Lois de probabilité Probabilités conditionnelles Paradoxes

9 III – 1) Qu'est ce qu'une probabilité ? ✔ Mots clés : Épreuve, événement, probabilité

10 Cadre de la notion de probabilité Lorsqu'on parle d'une probabilité on doit impérativement indiquer : ➢ de quelle épreuve aléatoire on traite ➢ à quel événement se rapporte cette probabilité

11 Épreuve Épreuve = Expérience reproductible, mais dont le résultat n'est pas prévisible, et pour laquelle on peut définir l'ensemble des résultats possibles.

12 Épreuve Épreuve ? OuiNon Vérification si une côte a été polluée par une marée noire Détermination du groupe sanguin d'un individu pris au hasard Sondage : qu'avez vous fait entre 20h et 21h hier soir ? ✗ Non reproductible ✗ Ensemble des résultats possibles non connus ✔

13 Événement Événement = sous-ensemble des résultats possibles de l'épreuve. Événement élémentaire = événement composé d'un seul résultat. Univers des événements = ensemble de tous les résultats possibles de l'épreuve

14 Événement Événements 4 événements possibles A,B,AB,O Détermination du groupe sanguin de deux individus pris au hasard 16 événements élémentaires : (A,A),(A,B),(A,AB),...,(B,A),... mais aussi «le premier individu est du groupe A » composé de 4 éléments Concentration de Na + dans un échantillon d'eau quelconque du littoral français Une infinité d'événements mais dont on sait ≥ 0 Détermination du groupe sanguin d'un individu pris au hasard

15 Il y a de l'ordre dans le hasard !

16 Loi empirique des grands nombres Si on répète l'épreuve un grand nombre de fois n en comptabilisant le nombre d'occurrences de l'événement A, n A le rapport n A /n tend vers une valeur comprise entre 0 et 1. Cette valeur est la probabilité associée à l'événement A

17 Définition fréquentiste de la probabilité Événement A associé à l' épreuve E = limite du rapport du nombre d'occurrences de l'événement A sur le nombre d'épreuves E effectuées

18 La probabilité est bornée 0 ≤n A ≤n ⇒ 0≤p(A)≤1 Événement certain = événement dont la probabilité vaut 1 Événement impossible = événement dont la probabilité vaut 0 Exemples : p(U)=1 p( ∅ )=0

19 Probabilité a priori Avant même l'exécution de l'épreuve, il existait une probabilité que l'événement se réalise. C'est la probabilité a priori. L'existence de cette limite en est une démonstration expérimentale.

20 Probabilité a priori Sous certaines hypothèses (souvent d'équiprobabilité) on peut déterminer a priori les probabilités d'occurrence d'un événement. Exemple : lancer de dé, jeu du « pile ou face » On emploie alors souvent les mathématiques combinatoires (combinaisons, arrangements,...) C'est ce que vous avez fait en terminale !

21 Paradoxe des camions prospecteurs Un forage pétrolier coûtant cher, on se livre au préalable à des campagnes de prospection estimant une probabilité de trouver du pétrole ou non en forant à un endroit donné. Cette probabilité conduira en fonction de sa valeur, des coûts, et des réserves estimées (en probabilité elles aussi) à la décision de forer ou non. Un premier camion prospection, en début de campagne de mesure : Probabilité de présence de pétrole : 57% Un deuxième camion prospection, en fin de campagne de mesure : Probabilité de présence de pétrole : 24% Le foreur : « Il n'y a pas de pétrole » Probabilité de présence de pétrole : 0% Quelle est la vraie probabilité ?

22 Attention au terme « probabilité » Ce paradoxe se résout en remarquant que la notion d'épreuve ne s'applique pas ici. Il n'y a pas de hasard. La «probabilité » décrite ici est simplement due à un manque de connaissance. Pour manier ce concept, on utilise la théorie des possibilités (L. Zadeh, 1978), qui a un formalisme similaire.

23 III – 2) Probabilité de combinaisons d'événements ✔ Mots clés : {Union, Intersection,Complémentaire}, Loi des probabilités totales

24 Combinaison d'événements On peut combiner les événements : Union Intersection Complémentaire

25 Union d'événements Union des événements A et B = A ∪ B= Événement réalisé lorsque A ou B est réalisé. Exemple : L'individu est de groupe sanguin A ou B Diagramme de Venn :

26 Intersection d'événements Intersection des événements A et B = A∩B= Événement réalisé lorsque A et B sont réalisés simultanément Exemple : Le groupe sanguin de cet individu est O = {Le groupe sanguin de cet individu est O ou A} ∩ {Le groupe sanguin de cet individu est O ou B} Diagramme de Venn :

27 Événements incompatibles Événements incompatibles = La réalisation de l'un entraîne la non- réalisation de l'autre. Leur intersection est nulle A∩B= ∅ (similaire à 2 ensembles disjoints) Exemple : {Le groupe sanguin de cet individu est A} et {Le groupe sanguin de cet individu est B} Diagramme de Venn :

28 Événement contraire Événement contraire de A = Ã = Événement tel que : 1) son union avec A donne l'univers des événements 2) Il est incompatible avec A Exemple : A={L'individu est de groupe sanguin A} Ã ={L'individu n'est pas de groupe sanguin A} Diagramme de Venn : A Ã

29 Lois de Morgan

30 Exemple On tire au hasard un individu dans une population Statistiques des décès en France en 2000 (INSEE) : En statistiques descriptives, on avait appelé ce tableau tableau de contingence Cancer du poumon Autres causes 4395 254415 Femme 22287 272040 Homme

31 Table de contingence Dans le cas du tirage aléatoire, il se récrit en terme de probabilités : Cancer Autres causes Total 0.8% 46% 46.8% Femme 4% 49.2% 1/2 Homme 4.8% 95.2% 100% Total

32 Table de contingence Nombre de personnes mortes en France en 2000 qui sont des femmes ou des malades du cancer du poumon Statistiques des décès en France en 2000 (INSEE) : Cancer du poumon Autre cause 4395 254415 Femme 22287 272040 Homme

33 Probabilité d'une union d'événements On peut remarquer que dans ce cas :

34 Loi des probabilités totales

35 Si deux événements A et B sont incompatibles : Notamment :

36 III – 3) Probabilités conditionnelles Mots clés : Loi des probabilités composées, probabilité conditionnelle, événements indépendants, théorème de Bayes.

37 Probabilité conditionnelle Si on applique des restrictions à l'épreuve, (typiquement en supposant qu'un événement B est déjà réalisé) la probabilité de réalisation de l'événement A pour la nouvelle épreuve est modifiée. La nouvelle probabilité est appelée probabilité conditionnelle de l'événement A sachant B. On note p(A/B)

38 Probabilité conditionnelle Exemple : On tire au hasard un individu dans une population Statistiques des décès en France en 2000 (INSEE) : Quelle est la probabilité que cet individu - soit une femme décédée des suites d'un cancer du poumon ? - soit décédée des suites d'un cancer du poumon sachant que c'est une femme ? Cancer du poumon Autre cause 4395 254415 Femme 22287 272040 Homme

39 Probabilité conditionnelle Quelle est la probabilité que cet individu soit une femme décédée des suites d'un cancer du poumon ? Le tirage est équiprobable. On l'effectue sur l'ensemble des personnes décédées : 4395+22287+254415+272040=530850 On compare à l'ensemble des personnes décédées qui 4395/530850*100=0.8% Autre cause 4395 254415 22287 Cancer du poumon Femme 272040 Homme sont des femmes et ont mortes d'un cancer du poumon ✗ Ce n'est pas une probabilité conditionnelle C'est p(cancer ∩femme )

40 Probabilité conditionnelle Quelle est la probabilité que cet individu soit décédée des suites d'un cancer du poumon sachant que c'est une femme ? 1) On a restreint l'épreuve à la population de femmes décédées 4395+254415= 258810 2) On regarde la proportion de cancers des poumons dans cette population 4395/258810*100=1.7% Autre cause 4395 254415 22287 Cancer du poumon Femme 272040 Homme ✓ C'est une probabilité conditionnelle C'est p(cancer/femme)

41 Probabilité conditionnelle On peut remarquer que dans ce cas :

42 Loi des probabilités composées

43 Théorème de Bayes Loi des probabilités composées Loi des probabilités totales Théorème de Bayes

44 Ce théorème est le fondement de l'inférence bayésienne. Ce terme un peu compliqué recouvre grossièrement le champ du diagnostic. (diagnostic médical, pannes, filtres anti-spam)

45 Théorème de Bayes Exemple : Test médicaux On vous fait passer un test de dépistage d'un virus touchant 1% de la population. Il est positif ! Des essais en laboratoire effectués sur des malades atteints du virus ont montré que le test était positif dans 80% des cas. Par contre, il se révélait négatif dans 90% des cas lors des tests sur des individus sains. Quelle était la « probabilité » d'être atteint avant le test ? Quelle est la « probabilité » d'être atteint après le test ?

46 Événements indépendants Jeu de « pile ou face » J'ai lancé 10 fois la pièce et j'ai eu 10 fois « pile » Quelle est la probabilité de tirer « face » au prochain coup? ½ Que j'ai tiré « pile » ou « face au coup précédent ne change rien (processus markovien)

47 Événements indépendants A est indépendant de B si

48 Loi des probabilités composées (2) Si A et B sont deux événements indépendants, la loi des probabilités composées devient

49 Événements indépendants La probabilité d'une personne de mourir du cancer des poumons est-il indépendant de son sexe ? Non p(cancer/femme) = 1.7% p(cancer/homme) = 7.5% Attention, la non-indépendance est le signe d'une corrélation, et non d'une causalité

50 Événements indépendants ? Attention aux tirages aléatoires dans des populations 2 tirages aléatoires successifs dans une population ne sont pas indépendants. C'est surtout visible si la population est de petite taille Exemple : On prend un individu au hasard dans un groupe. C'est un homme. Quelle est la probabilité que le prochain individu tiré au hasard soit une femme ? Groupe A = {6 hommes, 4 femmes} Groupe B = {6000 hommes, 4000 femmes}

51 III – 4) Les pièges des probabilités ✔ Mots clés : Loi des probabilités totales, Loi des probabilités composées, probabilité conditionnelle, théorème de Bayes.

52 Les pièges des probabilités Les probabilités vous réservent beaucoup de surprises ! ✗ On ne connaît pas bien les ordres de grandeur ✗ On ne précise pas toujours les épreuves associées ➔ C'est source de confusion (Probabilités conditionnelles) ✗ On n'insiste pas assez sur l'aspect répétitif de ces expériences. ✗ L'événement dont on parle n'est pas pertinent ✗ Des événements que l'on croit indépendants ne le sont pas Ces carences sont souvent utilisées lors de la manipulation d'opinion.

53 Ordre de grandeur mal connu Paradoxe de l'anniversaire « Incroyable. Lors de ma soirée d'anniversaire, il y avait deux personnes ayant la même date de naissance » La probabilité pour que ceci arrive est de plus de 50% (démontrez le en calculant la probabilité). Ce n'est pas incroyable

54 Confusion des épreuves Paradoxe des enfants Une famille chez qui on se rend en visite a deux enfants, mais on ne sait pas de quel(s) sexe(s). On sonne à la porte. Un garçon vient ouvrir. Quelle est la probabilité que l'autre soit un garçon aussi ? 1/3 Avant que l'enfant ne vienne ouvrir, il y avait 4 possibilités (fille, fille),(garçon,fille),(fille,garçon),(garçon,garçon) Seule la première possibilité a été éliminée, d'où 1/3 Vous avez pensé ½ ? Attention à une mauvaise lecture de l'énoncé. L'enfant est le premier à ouvrir la porte, et non le premier à naître (il ne resterait alors que (garçon,fille) et (garçon,garçon), d'où le 1/2)

55 Pertinence de l'événement Paradoxe de la voyante « L'astrologie a raison. La rubrique astrologie de mon journal a prédit hier une mauvaise chance à tous les gens de signe balance. Or justement mon petit frère -balance- a été blessé en voiture. » 2) Il y a eu en 2003, 111 135 blessés de la route. Soit en moyenne, 304.5 blessés par jour. Supposant que 1/12 des blessés sont balances, ça fait une moyenne 25.3 personnes de signe balance blessées sur la route ce jour-là. La prédiction « des balances seront accidentées sur les routes aujourd'hui » sera donc certainement réalisée. 1) La « prédiction » est très vague

56 Aspect répétitif de l'épreuve Paradoxe de la pilule contraceptive « Je suis tombée enceinte alors que le taux de réussite de ma pilule contraceptive est de 99.9%. Ce n'est vraiment pas de chance » Ce taux de réussite impressionnant est en fait calculé par rapport. En une année, avec une moyenne de 2 rapports par semaine, quelle est la probabilité d'échec de la contraception ? 1-0.999 (52*2) ~ 10%

57 IV Fonction d'une variable aléatoire ✔ Mots clés : Variable aléatoire, distribution de probabilité, fonction de répartition, fonction de densité de probabilité.

58 Échantillon = résultat d'une épreuve Échantillon : valeurs x i de la variable x Population : valeurs X i correspondantes ? L'échantillon étant tiré aléatoirement parmi la population, la valeur X n'est connu qu'avec une certaine probabilité X devient alors une variable aléatoire.

59 Distribution de probabilité L'échantillon a été tiré de manière aléatoire parmi la population. On a donc effectué une épreuve. La distribution de fréquence relative associée à X va donc tendre vers une distribution de probabilité P(X) lorsque le nombre de réalisation de l'épreuve (de tirages d'échantillons) tend vers l'infini.

60 Exemple Dans un sac, se trouve du blé, dont la moitié des grains sont abîmés Je veux estimer la qualité de la production Je prends 3 grains dans le sac : ➔ Quelle est l'épreuve ? ➔ Quels sont les événements possibles ? ➔ Quelles sont leurs probabilités? ➔ Donner la distribution de probabilités sous forme d'un tableau.

61 Fonction de répartition (d'une variable aléatoire) = (souvent notée F) Fonction des probabilités cumulées F(x 0 ) = p(x ≤ x 0 )

62 Solution graphique du problème du sac

63 Cas des variables continues Rappel de la définition de la distribution de probabilité « La distribution de fréquence relative associée à X va donc tendre vers une distribution de probabilité P(X) lorsque le nombre de réalisation de l'épreuve (de tirages d'échantillons) tend vers l'infini. » Dans le cas d'une variable continue, la notion de fréquence n'a de sens que pour un intervalle

64 Cas des variables continues On ne peut donc définir une probabilité P(x,dx), que pour l'intervalle [x,x+dx] Or, Cette fonction limite est appelée fonction de densité de probabilité p(x)

65 Cas des variables continues

66 Caractérisation d'une distribution On a donc défini une fonction, x → P(x) dont on aimerait préciser ✔ la valeur centrale ✔ la dispersion autour de cette position ✔ L'asymétrie, l'aplatissement,...

67 Espérance d'une distribution Espérance d'une distribution = Moyenne de cette distribution Le terme vient de la théorie des jeux, pour désigner l'espérance des gains. Les jeux de hasard sont toujours conçus pour avoir une espérance négative DiscretContinu On notera aussi la moyenne d'une distribution

68 Variance d'une distribution Moment d'ordre k d'une distribution = E(x k ) Variance d'une distribution = Moment centré d'ordre 2 DiscretContinu On notera aussi 2 la variance d'une distribution

69 IV – 1) Quelques distributions de variables aléatoires discrètes ✔ Mots clés : Loi binomiale, Loi de Poisson

70 Quelques distributions discrètes Les plus importantes sont : ➢ La distribution binomiale ➢ La distribution hypergéométrique ➢ La distribution de Poisson Il y a en plein d'autres (distribution binomiale négative, distribution géométrique, distributions multinômiales,...)

71 Retour sur le problème du sac Nous pouvons compliquer le problème du sac : - en prenant un nombre n quelconque de grains - en ayant un rapport p=grains abîmés/grains sains différent de ½ Quelle est la probabilité d'avoir x grains abîmés ?

72 Retour sur le problème du sac Quelle est la probabilité d'avoir x grains abîmés ? a) Pour tirer dans l'ordre : x fois un grain abîmé (n-x) fois un grain sain Chaque tirage est indépendant, ça nous donne donc p x (1-p) n-x

73 Retour sur le problème du sac b) p x (1-p) n-x a été calculé pour (a,a,...,a,s,s,...,s) Pour (a,s,a,...,a,s,s,...,s), c'est p (1-p) p x-1 (1-p) n-x-1 =p x (1-p) n-x La probabilité recherchée sera donc p x (1-p) n-x fois le nombre de combinaisons avec x grains abîmés et (n-x) grains sains

74 Rappel de probabilités de terminale Permutation = changement de l'ordre Exemple de permutation : {1,2,3} {2,1,3} Dans un groupe à n éléments (un n-uplet), le nombre de permutation possibles est n! = n ×( n-1) ×( n-2) ×... × 3 × 2 × 1 On appelle n! la factorielle de n.

75 Rappel de probabilités de terminale Arrangement de n éléments pris p à p = On collecte p éléments parmi n valeurs possibles, en interdisant deux valeurs identiques mais l'ordre importe. Exemple : n=3 valeurs possibles a,b,c p=2, groupes de 2 éléments. ab,ac,ba,bc,ca,cb Le nombre d'arrangements possibles est

76 Rappel de probabilités de terminale Combinaison de n éléments pris p à p = On collecte p éléments parmi n valeurs possibles, en interdisant deux valeurs identiques mais l'ordre n'importe pas. Exemple : n=3 valeurs possibles a,b,c p=2, groupes de 2 éléments. ab,bc,ca Le nombre de combinaison possibles est

77 Retour sur le problème du sac c) La distribution de probabilité recherchée est p x (1-p) n-x fois le nombre de combinaisons avec x grains abîmés et (n-x) grains sains : C'est ce qu'on appelle une distribution binomiale

78 Distribution binomiale La distribution binomiale modélise le nombre de succès lors d'épreuves répétées réalisées dans une population infinie telles que : - seuls deux événements sont possibles - la probabilité de chaque épreuve est constante - toutes les épreuves sont indépendantes

79 Distribution binomiale x : nombre de réussites n : nombre d'épreuves p : probabilité de réussite

80 Distribution binomiale Moyenne Variance

81 Loi binomiale Moyenne Variance La moyenne et la variance augmentent avec le nombre d'épreuves

82 Loi binomiale La dissymétrie augmente si p est proche de 0 ou 1 Moyenne Variance

83 Loi binomiale La loi binomiale est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab) qui vous calcule Bi(x,n,p) et sa fonction de répartition

84 Distribution de Poisson Elle est utilisée quand il s'agit de compter le nombre d'occurrences d'un événement rare durant une période donnée. Exemple : compteur Geiger, queues dans les magasins, nombre de défauts dans un disque dur.

85 Distribution de Poisson x : nombre d'événements par période : nombre d'événements moyen par période

86 Distribution de Poisson Moyenne Variance

87 Distribution de Poisson Moyenne Variance

88 Distribution hypergéométrique La loi hypergéométrique modélise le nombre de succès lors d'épreuves répétées réalisées sans remise dans une population de taille finie : - que seuls deux événements sont possibles - la probabilité de chaque épreuve est constante - toutes les épreuves sont indépendantes

89 Distribution de Poisson La loi de Poisson est un cas limite de la distribution binomiale. La distribution binomiale est bien approximée par la distribution de Poisson si p 50

90 IV – 2) Quelques distributions de variables aléatoires continues ✔ Mots clés :

91 IV – 2) Quelques distributions de variables aléatoires continues ✔ Mots clés :

92 Quelques distributions continues Les plus importantes sont : ➢ La loi normale ➢ La distribution du 2 (chi-deux) Il y a en plein d'autres (exponentielle, Fisher, Gamma, Student,...)

93 Quelques distributions continues À grand paramètre, les distributions binomiale et de Poisson tendent vers une belle « courbe en bosse » Cette courbe typique s'appelle la distribution normale

94 Distribution normale x : variable aléatoire : moyenne : écart-type

95 Distribution normale Moyenne Variance

96 Distribution normale Moyenne Variance

97 Distribution normale Moyenne Variance

98 Distribution normale Moyenne Variance

99 Distribution normale

100 Approximation par la loi normale La loi normale approxime bien les 2 fonctions que nous avons vues si Loi binomialeLoi de Poisson

101 IV – 3) Distribution d'une combinaison de variables aléatoires ✔ Mots clés : Loi du 2, de Student, de Fisher-Snedecor

102 Changement de variable Pour une variable aléatoire, on associe une distribution de probabilité Si on prend une autre variable aléatoire dépendante de cette variable que peut-on dire de sa distribution de probabilité ?

103 Standardisation (Rappel de stat. descr.) Centrage Standardisation Position Amplitude Dispersion Quartiles Variance Écart- type Z est aussi appelée variable centrée réduite

104 Exemple de changement de variable Ce changement de variable se transpose au cas des variables aléatoires X est un variable aléatoire associée à une distribution de probabilité de moyenne et de variance 2 On peut définir alors la variable centrée réduite associée Z La moyenne de la distribution associée à Z est nulle Sa variance vaut 1

105 Distribution normale standardisée Moyenne Variance

106 Combinaisons de variables aléatoires Il est tentant d'associer deux variables aléatoires Exemple du sac : On prend trois grains. À chaque grain tiré, on associe une variable aléatoire dans {0,1} On peut aussi prendre la variable aléatoire «nombre de grains abîmés » qui est la somme de ces trois variables aléatoires Attention toutefois à ce que toutes les variables soient indépendantes

107 Variables indépendantes Deux variables x et y sont indépendantes si Alors

108 Application directes aux statistiques On se place dans la cadre d'épreuves répétées On a donc n variables aléatoires, X 1, X 2,X 3,...X n de même loi de probabilité de moyenne et de variance ² On peut donc définir deux nouvelles variables Somme : S n =X 1 + X 2 +X 3+...+X n Moyenne :

109 Théorème central limite On a alors Somme Moyenne

110 Théorème central limite On montre en fait que les distributions de probabilités associées à la variable converge vers une distribution normale centrée (=0 et =1) quand n∞

111 Théorème central limite On vient de voir une exemple du théorème central limite avec la loi binomiale

112 Approximation par la loi normale Un phénomène est bien approximé par la distribution normale si : ✔ il dépend de nombreux facteurs ✔ que ces facteurs sont indépendants entre eux ✔ que les effets aléatoires de ces facteurs sont cumulatifs ✔ que les variations de ces facteurs sont faibles

113 Lois dérivées de la loi normale ➢ Loi du 2 (chi-deux) ➢ Loi de Student ➢ Loi de Fisher-Snedecor

114 Variable du 2 Soient X 1, X 2,X 3,...X n n variables normales centrées réduites La variable de Pearson ou du 2 vaut On dit alors qu'elle a n degrés de liberté La variable de Pearson est souvent utilisée pour comparer 2 séries de variables

115 Degré de liberté Le degré de liberté de 2 est le nombre de variables sommées diminué du nombre de relations entre ces variables Exemple X 1 = nombre de grains abîmés X 2 = nombre de grains sains P(X 1 )+P(X 2 ) =1 2 =X 1 2 +X 2 2 n'a qu'un degré de liberté

116 Loi du 2 La densité de probabilité d'une variable 2 de degrés de liberté est connue (ses valeurs sont stockées dans des tables) On l'appelle loi de 2 (ou de Pearson) de degré Elle a une expression relativement complexe rarement directement utilisée

117 Loi du 2 Lorsque ∞, la loi du 2 converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit

118 Loi du 2 La loi du 2 est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)

119 Variable de Student Soient Z une variable centrée réduite et 2 une variable de Pearson de degrés de liberté La variable est une variable aléatoire suivant une loi de Student avec degrés de liberté La variable de Student sera utilisée pour comparer deux moyennes

120 Loi de Student La loi de Student avec degrés de liberté est connue (ses valeurs sont stockées dans des tables) Elle a une expression relativement complexe rarement directement utilisée

121 Loi de Student Lorsque ∞, la loi de Student converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit

122 Loi de Student La loi de Student est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)

123 Variable de Fisher Soient 1 2 et 2 2 deux variables de Pearson, respectivement de degrés de liberté 1 et 2 La variable est une variable aléatoire suivant une loi de Fisher-Snedecor à 1 et 2 degrés de liberté La variable de Fisher sera utilisée pour comparer deux variances

124 Loi de Fisher-Snedecor La loi de Fisher-Snedecor à 1 et 2 degrés de liberté est connue (ses valeurs sont stockées dans des tables) Elle a une expression complexe rarement directement utilisée

125 Loi de Student Lorsque ∞, la loi de Student converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit

126 Loi de Student La loi de Student est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)

127 Sources de variabilité (1) Imprécision La mesure est répétée deux fois dans les mêmes conditions expérimentales Les résultats sont légèrement différents. Ce n'est pas une erreur mais la résultante de toute une série d'événements incontrôlés

128 Sources de variabilité Imprécision ≠ Inexactitude Si la mesure effective diffère de la valeur réelle, on parle alors d'inexactitude. Elle souvent due à une erreur dans le protocole expérimental. Elle est aussi introduite lorsqu'on étudie un échantillon peu représentatif de la population. Attention : l'inexactitude peut être masquée par l'incertitude

129 Sources de variabilité (2) Différences individuelles Les éléments de l'échantillon sont différents.

130 Sources de variabilité (3) Différences factorielles Les éléments placés dans un environnement différent ont des propriétés différentes. On cherche souvent à caractériser de telles différences.

131 Sources de variabilité Variabilité résiduelle = imprécision + variabilité individuelle Variabilité totale = variabilité résiduelle + variabilité factorielle

132 Sources de variabilité Population Facteur = a Facteur = b Facteur = c El 1 El 2 El 3 Incertitude Variabilité individuelle Variabilité factorielle Bruit Information

133 Repérer les sources de variabilité (1) Imprécision : faire la mesure 2 fois, dans les mêmes conditions, sur le même élément. (2) Variabilité individuelle : faire la mesure dans les mêmes conditions, sur au moins 2 éléments. (3) Variabilité factorielle : faire la mesure dans les mêmes conditions, sur au moins 2 éléments sur 2 niveaux de ce facteur.

134 Réduire les sources de variabilité (1) Imprécision : Améliorer la technique de mesure (2) Variabilité individuelle : Standardiser l'expérience en ne mélangeant pas différentes groupes dans l'étude. Bien définir la population (3) Variabilité factorielle : Irréductible. La variabilité factorielle est souvent ce que l'on veut mettre en évidence.

135 Stratégie de l'estimation Population N éléments Paramètres, 2,... Échantillon n éléments Paramètres,s 2,... Probabilités C n p échantillons de taille n Variables aléatoires X,S 2,... Sondage Constitution des tous les échantillons possibles Estimation

136 Paradoxe des statistiques Une étude cherche à préciser si un facteur a un effet sur une variable. On pourra : - éventuellement prouver la validité de l'hypothèse - mais jamais l'infirmer ! En effet, dans ce dernier cas, on ne pourra pas conclure car bruit > signal

137 Test d'hypothèse Test d'hypothèse = détermination de la plausibilité qu'un paramètre d'un modèle prenne des valeurs différentes dans des populations distinctes, afin de mettre en évidence, ou non, un effet d'un facteur expérimental sur une population.

138 Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1

139 Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1

140 Test d'hypothèse Test d'hypothèse = détermination de la plausibilité qu'un paramètre d'un modèle prenne des valeurs différentes dans des populations distinctes, afin de mettre en évidence, ou non, un effet d'un facteur expérimental sur une population.

141 Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1

142 Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1

143 Paramètres de la distribution de probabilité Pour un échantillon donné, on avait obtenu une distribution de valeurs. On avait pu définir une série de paramètres : Moyenne Si on répète la mesure N E fois, on obtient

144 Paramètres de la distribution de probabilité Pour un échantillon donné, on avait obtenu une distribution de valeurs. On avait pu définir une série de paramètres : Moyenne Variance


Télécharger ppt "III Probabilités ✔ Mots clés : épreuve, événement, probabilité, probabilité conditionnelle, théorème de Bayes, événements indépendants ✔ Savoir estimer."

Présentations similaires


Annonces Google