III Probabilités ✔ Mots clés : épreuve, événement, probabilité, probabilité conditionnelle, théorème de Bayes, événements indépendants ✔ Savoir estimer.

Slides:



Advertisements
Présentations similaires
L’échantillonnage & Ses Fluctuations
Advertisements

Corrélation Position du problème Définition covariance (X,Y) r =
Probabilités et statistiques au lycée
STATISTIQUE INFERENTIELLE L ’ESTIMATION
Thomas G. Dietterich Approximate Statistical Tests for Comparing
Les tests d’hypothèses (I)
TESTS RELATIFS AUX CARACTERES QUANTITATIFS
Inférence statistique
Les TESTS STATISTIQUES
Les TESTS STATISTIQUES
Échantillonnage-Estimation
Dr DEVILLE Emmanuelle J D V 12/07/2006
Notions de variable aléatoire et de probabilité d’un événement
Moyenne, écart type et incertitude de mesure.
Les tests d’hypothèses
Statistiques et probabilités en première
variable aléatoire Discrète
Fluctuations d’une fréquence selon les échantillons, Probabilités
2. Expériences aléatoires et modélisation
Eléments de Statistiques
Les liens entre les variables et les tests d’hypothèse
Atelier Probabilités et statistiques
Groupe 1: Classes de même intervalle
DEA Perception et Traitement de l’Information
Comprendre la variation dans les données: Notions de base
Chapitre 6 Lois de probabilité.
Les probabilités.
La corrélation et la régression
La corrélation et la régression
Probabilités et variables aléatoires
Probabilités et cannabis
Probabilités et Statistiques
Micro-intro aux stats.
Probas-Stats 1A novembre 10 1 Probabilités et Statistiques Année 2010/2011
TD4 : « Lois usuelles de statistiques »
STATISTIQUES – PROBABILITÉS
Fabienne BUSSAC PROBABILITÉS 1. VOCABULAIRE
Probabilités (suite).
Chapitre 3: Variables aléatoires réelles continues
Atelier Probabilités et statistiques
Principales distributions théoriques
- 6 - Concepts probabilistes et distributions de probabilité
III Probabilités ✔ Mots clés : tirage aléatoire, densité de probabilité ✔ Savoir calculer ces valeurs ✔ Connaître les principales fonctions statistiques.
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES
L’erreur standard et les principes fondamentaux du test de t
CHAPITRE 3. Acquisition d’information et révision des croyances
Chapitre 4 Variables aléatoires discrètes
Rappel de statistiques
Intervalles de fluctuation et de confiance. Dans une population, la proportion d’individus ayant un caractère donné est notée p Population.

1 Licence Stat-info CM3 a 2004 V1.2Christophe Genolini Problème des groupes Un amphi de 200 élèves : loi normale moyenne X et écart type s –Un élève :
Remise à niveau en statistique Eric Marcon – Module FTH 2006.
LOIS COURANTES DE PROBABILITES
Plan 1. Probabilités conditionnelles 2. Indépendance en probabilité
1_Introduction Toute mesure est entachée d’erreur. Il est impossible d’effectuer des mesures rigoureusement exactes. Pour rendre compte du degré d’approximation.
ECHANTILLONAGE ET ESTIMATION
Académie européenne des patients sur l'innovation thérapeutique Rôle et notions élémentaires des statistiques dans les essais cliniques.
Scénario Quatre hipsters entrent en collision un dans l'autre dans un ascenseur plein de personnes. En conséquence ils laissent tomber leurs téléphones.
Introduction aux statistiques Intervalles de confiance
Cours de Biostatistique
Chapitre 3 Lois de probabilité 1. Lois discrètes 2. Loi de Bernoulli (ou loi alternative simple) variable de Bernoulli On appelle variable de Bernoulli.
UED SIM – Département OLCI Année Arts & Métiers ParisTech CER ANGERS Probabilités et statistiques Cours n° 2.
 Champ des mathématiques  Ensemble de méthodes et de techniques  Permet une analyse objective  Facilitées aujourd’hui par les tableurs.
Les probabilités fournissent une description mathématique de l’incertain c’est-à-dire d’événements « aléatoires ». Introduction aux probabilités Néanmoins,
Chapitre 6 Les tests d ’ hypoth è se 1 – Comparer des moyennes ou des proportions.
Biostatistique pour le troisième cycle P. Leroy, F. Farnir 2013.
TP1: Statistique application chapitre 2. Le tableau suivant reprend le taux d'intérêt (en %) payé par 20 banques sur les dépôts d'épargne de leurs clients.
Bienvenue au cours MAT-350 Probabilités et statistiques.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Transcription de la présentation:

III Probabilités ✔ Mots clés : épreuve, événement, probabilité, probabilité conditionnelle, théorème de Bayes, événements indépendants ✔ Savoir estimer les probabilités de quelques cas simples ✔ Connaître les principaux pièges posés par les statistiques

Induction - Déduction Général (principes) Particulier (applications) Déduction Général Particulier Induction

La démarche statistique est inductive Population Échantillon Induction On parle aussi d'inférence statistique

Le problème de l'induction La population présente une grande variabilité. Cela va empêcher de conclure avec certitude sur la population à partir des données acquises sur un échantillon. Mais on a tout de même acquis de l'information!

Le problème de l'induction Exemple : On veut vérifier que la pose d'un engrais a un effet sur la taille des plantes traitées Exemple 1 Exemple 2 Faible variabilité => peu d'ambiguïté Forte variabilité => on a besoin de statistiques poussées conclure

L'apport des probabilités Variabilité ⇒ Incertitude Données sur l'échantillon ⇒ Information La théorie des probabilités permet de valoriser l'information tout en prenant en compte l'incertitude Comparez : ✗ «Cette voiture peut encore rouler un bon nombre de kilomètres » ✔ « Je vends une bonne centaine de voitures de ce type chaque année, et je peux dire que vous avez 95% de chances de rouler entre et km sans panne majeure. »

Probabilités Notions Lois de probabilité Probabilités conditionnelles Paradoxes

III – 1) Qu'est ce qu'une probabilité ? ✔ Mots clés : Épreuve, événement, probabilité

Cadre de la notion de probabilité Lorsqu'on parle d'une probabilité on doit impérativement indiquer : ➢ de quelle épreuve aléatoire on traite ➢ à quel événement se rapporte cette probabilité

Épreuve Épreuve = Expérience reproductible, mais dont le résultat n'est pas prévisible, et pour laquelle on peut définir l'ensemble des résultats possibles.

Épreuve Épreuve ? OuiNon Vérification si une côte a été polluée par une marée noire Détermination du groupe sanguin d'un individu pris au hasard Sondage : qu'avez vous fait entre 20h et 21h hier soir ? ✗ Non reproductible ✗ Ensemble des résultats possibles non connus ✔

Événement Événement = sous-ensemble des résultats possibles de l'épreuve. Événement élémentaire = événement composé d'un seul résultat. Univers des événements = ensemble de tous les résultats possibles de l'épreuve

Événement Événements 4 événements possibles A,B,AB,O Détermination du groupe sanguin de deux individus pris au hasard 16 événements élémentaires : (A,A),(A,B),(A,AB),...,(B,A),... mais aussi «le premier individu est du groupe A » composé de 4 éléments Concentration de Na + dans un échantillon d'eau quelconque du littoral français Une infinité d'événements mais dont on sait ≥ 0 Détermination du groupe sanguin d'un individu pris au hasard

Il y a de l'ordre dans le hasard !

Loi empirique des grands nombres Si on répète l'épreuve un grand nombre de fois n en comptabilisant le nombre d'occurrences de l'événement A, n A le rapport n A /n tend vers une valeur comprise entre 0 et 1. Cette valeur est la probabilité associée à l'événement A

Définition fréquentiste de la probabilité Événement A associé à l' épreuve E = limite du rapport du nombre d'occurrences de l'événement A sur le nombre d'épreuves E effectuées

La probabilité est bornée 0 ≤n A ≤n ⇒ 0≤p(A)≤1 Événement certain = événement dont la probabilité vaut 1 Événement impossible = événement dont la probabilité vaut 0 Exemples : p(U)=1 p( ∅ )=0

Probabilité a priori Avant même l'exécution de l'épreuve, il existait une probabilité que l'événement se réalise. C'est la probabilité a priori. L'existence de cette limite en est une démonstration expérimentale.

Probabilité a priori Sous certaines hypothèses (souvent d'équiprobabilité) on peut déterminer a priori les probabilités d'occurrence d'un événement. Exemple : lancer de dé, jeu du « pile ou face » On emploie alors souvent les mathématiques combinatoires (combinaisons, arrangements,...) C'est ce que vous avez fait en terminale !

Paradoxe des camions prospecteurs Un forage pétrolier coûtant cher, on se livre au préalable à des campagnes de prospection estimant une probabilité de trouver du pétrole ou non en forant à un endroit donné. Cette probabilité conduira en fonction de sa valeur, des coûts, et des réserves estimées (en probabilité elles aussi) à la décision de forer ou non. Un premier camion prospection, en début de campagne de mesure : Probabilité de présence de pétrole : 57% Un deuxième camion prospection, en fin de campagne de mesure : Probabilité de présence de pétrole : 24% Le foreur : « Il n'y a pas de pétrole » Probabilité de présence de pétrole : 0% Quelle est la vraie probabilité ?

Attention au terme « probabilité » Ce paradoxe se résout en remarquant que la notion d'épreuve ne s'applique pas ici. Il n'y a pas de hasard. La «probabilité » décrite ici est simplement due à un manque de connaissance. Pour manier ce concept, on utilise la théorie des possibilités (L. Zadeh, 1978), qui a un formalisme similaire.

III – 2) Probabilité de combinaisons d'événements ✔ Mots clés : {Union, Intersection,Complémentaire}, Loi des probabilités totales

Combinaison d'événements On peut combiner les événements : Union Intersection Complémentaire

Union d'événements Union des événements A et B = A ∪ B= Événement réalisé lorsque A ou B est réalisé. Exemple : L'individu est de groupe sanguin A ou B Diagramme de Venn :

Intersection d'événements Intersection des événements A et B = A∩B= Événement réalisé lorsque A et B sont réalisés simultanément Exemple : Le groupe sanguin de cet individu est O = {Le groupe sanguin de cet individu est O ou A} ∩ {Le groupe sanguin de cet individu est O ou B} Diagramme de Venn :

Événements incompatibles Événements incompatibles = La réalisation de l'un entraîne la non- réalisation de l'autre. Leur intersection est nulle A∩B= ∅ (similaire à 2 ensembles disjoints) Exemple : {Le groupe sanguin de cet individu est A} et {Le groupe sanguin de cet individu est B} Diagramme de Venn :

Événement contraire Événement contraire de A = Ã = Événement tel que : 1) son union avec A donne l'univers des événements 2) Il est incompatible avec A Exemple : A={L'individu est de groupe sanguin A} Ã ={L'individu n'est pas de groupe sanguin A} Diagramme de Venn : A Ã

Lois de Morgan

Exemple On tire au hasard un individu dans une population Statistiques des décès en France en 2000 (INSEE) : En statistiques descriptives, on avait appelé ce tableau tableau de contingence Cancer du poumon Autres causes Femme Homme

Table de contingence Dans le cas du tirage aléatoire, il se récrit en terme de probabilités : Cancer Autres causes Total 0.8% 46% 46.8% Femme 4% 49.2% 1/2 Homme 4.8% 95.2% 100% Total

Table de contingence Nombre de personnes mortes en France en 2000 qui sont des femmes ou des malades du cancer du poumon Statistiques des décès en France en 2000 (INSEE) : Cancer du poumon Autre cause Femme Homme

Probabilité d'une union d'événements On peut remarquer que dans ce cas :

Loi des probabilités totales

Si deux événements A et B sont incompatibles : Notamment :

III – 3) Probabilités conditionnelles Mots clés : Loi des probabilités composées, probabilité conditionnelle, événements indépendants, théorème de Bayes.

Probabilité conditionnelle Si on applique des restrictions à l'épreuve, (typiquement en supposant qu'un événement B est déjà réalisé) la probabilité de réalisation de l'événement A pour la nouvelle épreuve est modifiée. La nouvelle probabilité est appelée probabilité conditionnelle de l'événement A sachant B. On note p(A/B)

Probabilité conditionnelle Exemple : On tire au hasard un individu dans une population Statistiques des décès en France en 2000 (INSEE) : Quelle est la probabilité que cet individu - soit une femme décédée des suites d'un cancer du poumon ? - soit décédée des suites d'un cancer du poumon sachant que c'est une femme ? Cancer du poumon Autre cause Femme Homme

Probabilité conditionnelle Quelle est la probabilité que cet individu soit une femme décédée des suites d'un cancer du poumon ? Le tirage est équiprobable. On l'effectue sur l'ensemble des personnes décédées : = On compare à l'ensemble des personnes décédées qui 4395/530850*100=0.8% Autre cause Cancer du poumon Femme Homme sont des femmes et ont mortes d'un cancer du poumon ✗ Ce n'est pas une probabilité conditionnelle C'est p(cancer ∩femme )

Probabilité conditionnelle Quelle est la probabilité que cet individu soit décédée des suites d'un cancer du poumon sachant que c'est une femme ? 1) On a restreint l'épreuve à la population de femmes décédées = ) On regarde la proportion de cancers des poumons dans cette population 4395/258810*100=1.7% Autre cause Cancer du poumon Femme Homme ✓ C'est une probabilité conditionnelle C'est p(cancer/femme)

Probabilité conditionnelle On peut remarquer que dans ce cas :

Loi des probabilités composées

Théorème de Bayes Loi des probabilités composées Loi des probabilités totales Théorème de Bayes

Ce théorème est le fondement de l'inférence bayésienne. Ce terme un peu compliqué recouvre grossièrement le champ du diagnostic. (diagnostic médical, pannes, filtres anti-spam)

Théorème de Bayes Exemple : Test médicaux On vous fait passer un test de dépistage d'un virus touchant 1% de la population. Il est positif ! Des essais en laboratoire effectués sur des malades atteints du virus ont montré que le test était positif dans 80% des cas. Par contre, il se révélait négatif dans 90% des cas lors des tests sur des individus sains. Quelle était la « probabilité » d'être atteint avant le test ? Quelle est la « probabilité » d'être atteint après le test ?

Événements indépendants Jeu de « pile ou face » J'ai lancé 10 fois la pièce et j'ai eu 10 fois « pile » Quelle est la probabilité de tirer « face » au prochain coup? ½ Que j'ai tiré « pile » ou « face au coup précédent ne change rien (processus markovien)

Événements indépendants A est indépendant de B si

Loi des probabilités composées (2) Si A et B sont deux événements indépendants, la loi des probabilités composées devient

Événements indépendants La probabilité d'une personne de mourir du cancer des poumons est-il indépendant de son sexe ? Non p(cancer/femme) = 1.7% p(cancer/homme) = 7.5% Attention, la non-indépendance est le signe d'une corrélation, et non d'une causalité

Événements indépendants ? Attention aux tirages aléatoires dans des populations 2 tirages aléatoires successifs dans une population ne sont pas indépendants. C'est surtout visible si la population est de petite taille Exemple : On prend un individu au hasard dans un groupe. C'est un homme. Quelle est la probabilité que le prochain individu tiré au hasard soit une femme ? Groupe A = {6 hommes, 4 femmes} Groupe B = {6000 hommes, 4000 femmes}

III – 4) Les pièges des probabilités ✔ Mots clés : Loi des probabilités totales, Loi des probabilités composées, probabilité conditionnelle, théorème de Bayes.

Les pièges des probabilités Les probabilités vous réservent beaucoup de surprises ! ✗ On ne connaît pas bien les ordres de grandeur ✗ On ne précise pas toujours les épreuves associées ➔ C'est source de confusion (Probabilités conditionnelles) ✗ On n'insiste pas assez sur l'aspect répétitif de ces expériences. ✗ L'événement dont on parle n'est pas pertinent ✗ Des événements que l'on croit indépendants ne le sont pas Ces carences sont souvent utilisées lors de la manipulation d'opinion.

Ordre de grandeur mal connu Paradoxe de l'anniversaire « Incroyable. Lors de ma soirée d'anniversaire, il y avait deux personnes ayant la même date de naissance » La probabilité pour que ceci arrive est de plus de 50% (démontrez le en calculant la probabilité). Ce n'est pas incroyable

Confusion des épreuves Paradoxe des enfants Une famille chez qui on se rend en visite a deux enfants, mais on ne sait pas de quel(s) sexe(s). On sonne à la porte. Un garçon vient ouvrir. Quelle est la probabilité que l'autre soit un garçon aussi ? 1/3 Avant que l'enfant ne vienne ouvrir, il y avait 4 possibilités (fille, fille),(garçon,fille),(fille,garçon),(garçon,garçon) Seule la première possibilité a été éliminée, d'où 1/3 Vous avez pensé ½ ? Attention à une mauvaise lecture de l'énoncé. L'enfant est le premier à ouvrir la porte, et non le premier à naître (il ne resterait alors que (garçon,fille) et (garçon,garçon), d'où le 1/2)

Pertinence de l'événement Paradoxe de la voyante « L'astrologie a raison. La rubrique astrologie de mon journal a prédit hier une mauvaise chance à tous les gens de signe balance. Or justement mon petit frère -balance- a été blessé en voiture. » 2) Il y a eu en 2003, blessés de la route. Soit en moyenne, blessés par jour. Supposant que 1/12 des blessés sont balances, ça fait une moyenne 25.3 personnes de signe balance blessées sur la route ce jour-là. La prédiction « des balances seront accidentées sur les routes aujourd'hui » sera donc certainement réalisée. 1) La « prédiction » est très vague

Aspect répétitif de l'épreuve Paradoxe de la pilule contraceptive « Je suis tombée enceinte alors que le taux de réussite de ma pilule contraceptive est de 99.9%. Ce n'est vraiment pas de chance » Ce taux de réussite impressionnant est en fait calculé par rapport. En une année, avec une moyenne de 2 rapports par semaine, quelle est la probabilité d'échec de la contraception ? (52*2) ~ 10%

IV Fonction d'une variable aléatoire ✔ Mots clés : Variable aléatoire, distribution de probabilité, fonction de répartition, fonction de densité de probabilité.

Échantillon = résultat d'une épreuve Échantillon : valeurs x i de la variable x Population : valeurs X i correspondantes ? L'échantillon étant tiré aléatoirement parmi la population, la valeur X n'est connu qu'avec une certaine probabilité X devient alors une variable aléatoire.

Distribution de probabilité L'échantillon a été tiré de manière aléatoire parmi la population. On a donc effectué une épreuve. La distribution de fréquence relative associée à X va donc tendre vers une distribution de probabilité P(X) lorsque le nombre de réalisation de l'épreuve (de tirages d'échantillons) tend vers l'infini.

Exemple Dans un sac, se trouve du blé, dont la moitié des grains sont abîmés Je veux estimer la qualité de la production Je prends 3 grains dans le sac : ➔ Quelle est l'épreuve ? ➔ Quels sont les événements possibles ? ➔ Quelles sont leurs probabilités? ➔ Donner la distribution de probabilités sous forme d'un tableau.

Fonction de répartition (d'une variable aléatoire) = (souvent notée F) Fonction des probabilités cumulées F(x 0 ) = p(x ≤ x 0 )

Solution graphique du problème du sac

Cas des variables continues Rappel de la définition de la distribution de probabilité « La distribution de fréquence relative associée à X va donc tendre vers une distribution de probabilité P(X) lorsque le nombre de réalisation de l'épreuve (de tirages d'échantillons) tend vers l'infini. » Dans le cas d'une variable continue, la notion de fréquence n'a de sens que pour un intervalle

Cas des variables continues On ne peut donc définir une probabilité P(x,dx), que pour l'intervalle [x,x+dx] Or, Cette fonction limite est appelée fonction de densité de probabilité p(x)

Cas des variables continues

Caractérisation d'une distribution On a donc défini une fonction, x → P(x) dont on aimerait préciser ✔ la valeur centrale ✔ la dispersion autour de cette position ✔ L'asymétrie, l'aplatissement,...

Espérance d'une distribution Espérance d'une distribution = Moyenne de cette distribution Le terme vient de la théorie des jeux, pour désigner l'espérance des gains. Les jeux de hasard sont toujours conçus pour avoir une espérance négative DiscretContinu On notera aussi la moyenne d'une distribution

Variance d'une distribution Moment d'ordre k d'une distribution = E(x k ) Variance d'une distribution = Moment centré d'ordre 2 DiscretContinu On notera aussi 2 la variance d'une distribution

IV – 1) Quelques distributions de variables aléatoires discrètes ✔ Mots clés : Loi binomiale, Loi de Poisson

Quelques distributions discrètes Les plus importantes sont : ➢ La distribution binomiale ➢ La distribution hypergéométrique ➢ La distribution de Poisson Il y a en plein d'autres (distribution binomiale négative, distribution géométrique, distributions multinômiales,...)

Retour sur le problème du sac Nous pouvons compliquer le problème du sac : - en prenant un nombre n quelconque de grains - en ayant un rapport p=grains abîmés/grains sains différent de ½ Quelle est la probabilité d'avoir x grains abîmés ?

Retour sur le problème du sac Quelle est la probabilité d'avoir x grains abîmés ? a) Pour tirer dans l'ordre : x fois un grain abîmé (n-x) fois un grain sain Chaque tirage est indépendant, ça nous donne donc p x (1-p) n-x

Retour sur le problème du sac b) p x (1-p) n-x a été calculé pour (a,a,...,a,s,s,...,s) Pour (a,s,a,...,a,s,s,...,s), c'est p (1-p) p x-1 (1-p) n-x-1 =p x (1-p) n-x La probabilité recherchée sera donc p x (1-p) n-x fois le nombre de combinaisons avec x grains abîmés et (n-x) grains sains

Rappel de probabilités de terminale Permutation = changement de l'ordre Exemple de permutation : {1,2,3} {2,1,3} Dans un groupe à n éléments (un n-uplet), le nombre de permutation possibles est n! = n ×( n-1) ×( n-2) ×... × 3 × 2 × 1 On appelle n! la factorielle de n.

Rappel de probabilités de terminale Arrangement de n éléments pris p à p = On collecte p éléments parmi n valeurs possibles, en interdisant deux valeurs identiques mais l'ordre importe. Exemple : n=3 valeurs possibles a,b,c p=2, groupes de 2 éléments. ab,ac,ba,bc,ca,cb Le nombre d'arrangements possibles est

Rappel de probabilités de terminale Combinaison de n éléments pris p à p = On collecte p éléments parmi n valeurs possibles, en interdisant deux valeurs identiques mais l'ordre n'importe pas. Exemple : n=3 valeurs possibles a,b,c p=2, groupes de 2 éléments. ab,bc,ca Le nombre de combinaison possibles est

Retour sur le problème du sac c) La distribution de probabilité recherchée est p x (1-p) n-x fois le nombre de combinaisons avec x grains abîmés et (n-x) grains sains : C'est ce qu'on appelle une distribution binomiale

Distribution binomiale La distribution binomiale modélise le nombre de succès lors d'épreuves répétées réalisées dans une population infinie telles que : - seuls deux événements sont possibles - la probabilité de chaque épreuve est constante - toutes les épreuves sont indépendantes

Distribution binomiale x : nombre de réussites n : nombre d'épreuves p : probabilité de réussite

Distribution binomiale Moyenne Variance

Loi binomiale Moyenne Variance La moyenne et la variance augmentent avec le nombre d'épreuves

Loi binomiale La dissymétrie augmente si p est proche de 0 ou 1 Moyenne Variance

Loi binomiale La loi binomiale est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab) qui vous calcule Bi(x,n,p) et sa fonction de répartition

Distribution de Poisson Elle est utilisée quand il s'agit de compter le nombre d'occurrences d'un événement rare durant une période donnée. Exemple : compteur Geiger, queues dans les magasins, nombre de défauts dans un disque dur.

Distribution de Poisson x : nombre d'événements par période : nombre d'événements moyen par période

Distribution de Poisson Moyenne Variance

Distribution de Poisson Moyenne Variance

Distribution hypergéométrique La loi hypergéométrique modélise le nombre de succès lors d'épreuves répétées réalisées sans remise dans une population de taille finie : - que seuls deux événements sont possibles - la probabilité de chaque épreuve est constante - toutes les épreuves sont indépendantes

Distribution de Poisson La loi de Poisson est un cas limite de la distribution binomiale. La distribution binomiale est bien approximée par la distribution de Poisson si p 50

IV – 2) Quelques distributions de variables aléatoires continues ✔ Mots clés :

IV – 2) Quelques distributions de variables aléatoires continues ✔ Mots clés :

Quelques distributions continues Les plus importantes sont : ➢ La loi normale ➢ La distribution du 2 (chi-deux) Il y a en plein d'autres (exponentielle, Fisher, Gamma, Student,...)

Quelques distributions continues À grand paramètre, les distributions binomiale et de Poisson tendent vers une belle « courbe en bosse » Cette courbe typique s'appelle la distribution normale

Distribution normale x : variable aléatoire : moyenne : écart-type

Distribution normale Moyenne Variance

Distribution normale Moyenne Variance

Distribution normale Moyenne Variance

Distribution normale Moyenne Variance

Distribution normale

Approximation par la loi normale La loi normale approxime bien les 2 fonctions que nous avons vues si Loi binomialeLoi de Poisson

IV – 3) Distribution d'une combinaison de variables aléatoires ✔ Mots clés : Loi du 2, de Student, de Fisher-Snedecor

Changement de variable Pour une variable aléatoire, on associe une distribution de probabilité Si on prend une autre variable aléatoire dépendante de cette variable que peut-on dire de sa distribution de probabilité ?

Standardisation (Rappel de stat. descr.) Centrage Standardisation Position Amplitude Dispersion Quartiles Variance Écart- type Z est aussi appelée variable centrée réduite

Exemple de changement de variable Ce changement de variable se transpose au cas des variables aléatoires X est un variable aléatoire associée à une distribution de probabilité de moyenne et de variance 2 On peut définir alors la variable centrée réduite associée Z La moyenne de la distribution associée à Z est nulle Sa variance vaut 1

Distribution normale standardisée Moyenne Variance

Combinaisons de variables aléatoires Il est tentant d'associer deux variables aléatoires Exemple du sac : On prend trois grains. À chaque grain tiré, on associe une variable aléatoire dans {0,1} On peut aussi prendre la variable aléatoire «nombre de grains abîmés » qui est la somme de ces trois variables aléatoires Attention toutefois à ce que toutes les variables soient indépendantes

Variables indépendantes Deux variables x et y sont indépendantes si Alors

Application directes aux statistiques On se place dans la cadre d'épreuves répétées On a donc n variables aléatoires, X 1, X 2,X 3,...X n de même loi de probabilité de moyenne et de variance ² On peut donc définir deux nouvelles variables Somme : S n =X 1 + X 2 +X X n Moyenne :

Théorème central limite On a alors Somme Moyenne

Théorème central limite On montre en fait que les distributions de probabilités associées à la variable converge vers une distribution normale centrée (=0 et =1) quand n∞

Théorème central limite On vient de voir une exemple du théorème central limite avec la loi binomiale

Approximation par la loi normale Un phénomène est bien approximé par la distribution normale si : ✔ il dépend de nombreux facteurs ✔ que ces facteurs sont indépendants entre eux ✔ que les effets aléatoires de ces facteurs sont cumulatifs ✔ que les variations de ces facteurs sont faibles

Lois dérivées de la loi normale ➢ Loi du 2 (chi-deux) ➢ Loi de Student ➢ Loi de Fisher-Snedecor

Variable du 2 Soient X 1, X 2,X 3,...X n n variables normales centrées réduites La variable de Pearson ou du 2 vaut On dit alors qu'elle a n degrés de liberté La variable de Pearson est souvent utilisée pour comparer 2 séries de variables

Degré de liberté Le degré de liberté de 2 est le nombre de variables sommées diminué du nombre de relations entre ces variables Exemple X 1 = nombre de grains abîmés X 2 = nombre de grains sains P(X 1 )+P(X 2 ) =1 2 =X 1 2 +X 2 2 n'a qu'un degré de liberté

Loi du 2 La densité de probabilité d'une variable 2 de degrés de liberté est connue (ses valeurs sont stockées dans des tables) On l'appelle loi de 2 (ou de Pearson) de degré Elle a une expression relativement complexe rarement directement utilisée

Loi du 2 Lorsque ∞, la loi du 2 converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit

Loi du 2 La loi du 2 est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)

Variable de Student Soient Z une variable centrée réduite et 2 une variable de Pearson de degrés de liberté La variable est une variable aléatoire suivant une loi de Student avec degrés de liberté La variable de Student sera utilisée pour comparer deux moyennes

Loi de Student La loi de Student avec degrés de liberté est connue (ses valeurs sont stockées dans des tables) Elle a une expression relativement complexe rarement directement utilisée

Loi de Student Lorsque ∞, la loi de Student converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit

Loi de Student La loi de Student est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)

Variable de Fisher Soient 1 2 et 2 2 deux variables de Pearson, respectivement de degrés de liberté 1 et 2 La variable est une variable aléatoire suivant une loi de Fisher-Snedecor à 1 et 2 degrés de liberté La variable de Fisher sera utilisée pour comparer deux variances

Loi de Fisher-Snedecor La loi de Fisher-Snedecor à 1 et 2 degrés de liberté est connue (ses valeurs sont stockées dans des tables) Elle a une expression complexe rarement directement utilisée

Loi de Student Lorsque ∞, la loi de Student converge vers la loi normale Pourquoi ? Théorème central limite >30 suffit

Loi de Student La loi de Student est tabulée. Vous pouvez : ➢ Utiliser une table (TD) ➢ Utiliser un logiciel (Excel, Matlab)

Sources de variabilité (1) Imprécision La mesure est répétée deux fois dans les mêmes conditions expérimentales Les résultats sont légèrement différents. Ce n'est pas une erreur mais la résultante de toute une série d'événements incontrôlés

Sources de variabilité Imprécision ≠ Inexactitude Si la mesure effective diffère de la valeur réelle, on parle alors d'inexactitude. Elle souvent due à une erreur dans le protocole expérimental. Elle est aussi introduite lorsqu'on étudie un échantillon peu représentatif de la population. Attention : l'inexactitude peut être masquée par l'incertitude

Sources de variabilité (2) Différences individuelles Les éléments de l'échantillon sont différents.

Sources de variabilité (3) Différences factorielles Les éléments placés dans un environnement différent ont des propriétés différentes. On cherche souvent à caractériser de telles différences.

Sources de variabilité Variabilité résiduelle = imprécision + variabilité individuelle Variabilité totale = variabilité résiduelle + variabilité factorielle

Sources de variabilité Population Facteur = a Facteur = b Facteur = c El 1 El 2 El 3 Incertitude Variabilité individuelle Variabilité factorielle Bruit Information

Repérer les sources de variabilité (1) Imprécision : faire la mesure 2 fois, dans les mêmes conditions, sur le même élément. (2) Variabilité individuelle : faire la mesure dans les mêmes conditions, sur au moins 2 éléments. (3) Variabilité factorielle : faire la mesure dans les mêmes conditions, sur au moins 2 éléments sur 2 niveaux de ce facteur.

Réduire les sources de variabilité (1) Imprécision : Améliorer la technique de mesure (2) Variabilité individuelle : Standardiser l'expérience en ne mélangeant pas différentes groupes dans l'étude. Bien définir la population (3) Variabilité factorielle : Irréductible. La variabilité factorielle est souvent ce que l'on veut mettre en évidence.

Stratégie de l'estimation Population N éléments Paramètres, 2,... Échantillon n éléments Paramètres,s 2,... Probabilités C n p échantillons de taille n Variables aléatoires X,S 2,... Sondage Constitution des tous les échantillons possibles Estimation

Paradoxe des statistiques Une étude cherche à préciser si un facteur a un effet sur une variable. On pourra : - éventuellement prouver la validité de l'hypothèse - mais jamais l'infirmer ! En effet, dans ce dernier cas, on ne pourra pas conclure car bruit > signal

Test d'hypothèse Test d'hypothèse = détermination de la plausibilité qu'un paramètre d'un modèle prenne des valeurs différentes dans des populations distinctes, afin de mettre en évidence, ou non, un effet d'un facteur expérimental sur une population.

Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1

Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1

Test d'hypothèse Test d'hypothèse = détermination de la plausibilité qu'un paramètre d'un modèle prenne des valeurs différentes dans des populations distinctes, afin de mettre en évidence, ou non, un effet d'un facteur expérimental sur une population.

Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1

Hypothèse statistique Hypothèse nulle (ou principale) H0 On pose aussi l'hypothèse «alternative » H1

Paramètres de la distribution de probabilité Pour un échantillon donné, on avait obtenu une distribution de valeurs. On avait pu définir une série de paramètres : Moyenne Si on répète la mesure N E fois, on obtient

Paramètres de la distribution de probabilité Pour un échantillon donné, on avait obtenu une distribution de valeurs. On avait pu définir une série de paramètres : Moyenne Variance