C - Lois de probabilités

Slides:



Advertisements
Présentations similaires
Intervalles de confiance
Advertisements

L’échantillonnage & Ses Fluctuations
Probabilités et statistiques au lycée
STATISTIQUE INFERENTIELLE L ’ESTIMATION
Thomas G. Dietterich Approximate Statistical Tests for Comparing
Notion de probabilité.
Incertitudes lors d’un dosage acide base
Les tests d’hypothèses (I)
TESTS RELATIFS AUX CARACTERES QUANTITATIFS
Collecte de données F. Kohler.
Comparaison de deux moyennes observées
Inférence statistique
Comparaison d'une distribution observée à une distribution théorique
Tests de comparaison de pourcentages
Échantillonnage-Estimation
4 Les Lois discrètes.
Autour d’une expérience aléatoire simple:
Moyenne, écart type et incertitude de mesure.
Système formel Nous avons introduit : signes de variables (x, y, z, …), de constantes (0, 1), d’opérations (+, ), de relations (=, ) Axiomes : ce sont.
Les tests d’hypothèses
Statistiques et probabilités en première
variable aléatoire Discrète
Statistiques et probabilité :
Fluctuations d’une fréquence selon les échantillons, Probabilités
2. Expériences aléatoires et modélisation
Statistiques et Probabilités au lycée
Autres LOIS de PROBABILITES
C - Lois de probabilités 1. Préambule
Régression linéaire simple
Groupe 1: Classes de même intervalle
Introduction aux probabilités
Tableaux de distributions
Comprendre la variation dans les données: Notions de base
Fonction partie entière
Les probabilités.
Université dOttawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :47 1 Concepts fondamentaux: statistiques et distributions.
Rappel: V.A. discrètes: , Moyenne Variance Écart type.
Dépannage du 12 mars 2007.
Théorie… Inférence statistique: étude du comportement d’une population ou d’un caractère X des membres d’une population à partir d’un échantillon aléatoire.
TEST d’ADEQUATION A UNE LOI EQUIREPARTIE
Distribution d’échantillonnage
Fonction partie entière
ÉCHANTILLONNAGE AU FIL DES PROGRAMMES Stage : nouveaux programmes de première Novembre 2011.
Lectures Volume du cours : Chapitre 7
Varia Lectures obligatoires dans manuel du cours: Chapitre 5
1 - Programme de Seconde (juin 2009) Statistique et probabilités
Thème: statistiques et probabilités Séquence 3: Statistique descriptive Utiliser un logiciel (par exemple, un tableur) ou une calculatrice pour étudier.
Rappels de statistiques descriptives
Théorème de la limite centrale l’inférence statistique
STATISTIQUES DESCRIPTIVES
Micro-intro aux stats.
TD4 : « Lois usuelles de statistiques »
STATISTIQUES – PROBABILITÉS
Intervalles de confiance pour des proportions L’inférence statistique
Fabienne BUSSAC PROBABILITÉS 1. VOCABULAIRE
Probabilités (suite).
Chapitre 3: Variables aléatoires réelles continues
Concepts fondamentaux: statistiques et distributions
Principales distributions théoriques
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES
Chapitre 4 Variables aléatoires discrètes
Rappel de statistiques
Intervalles de fluctuation et de confiance. Dans une population, la proportion d’individus ayant un caractère donné est notée p Population.
Probabilités et statistique MQT-1102
ECHANTILLONAGE ET ESTIMATION
Scénario Quatre hipsters entrent en collision un dans l'autre dans un ascenseur plein de personnes. En conséquence ils laissent tomber leurs téléphones.
Introduction aux statistiques Intervalles de confiance
Bienvenue au cours MAT-350 Probabilités et statistiques.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Transcription de la présentation:

C - Lois de probabilités Préambule Quelques rappels sur les probabilités Définition ; 2 cas à considérer Exemples Loi binomiale Loi de Poisson Calcul de probabilités dans le cas des lois continues Loi normale Passage d’une loi binomiale à une loi normale

C - Lois de probabilités 1. Préambule Loi de probabilité  élément central de la statistique Avant tout, il faut bien définir la VA d’étude La détermination de la loi de probabilité suivie par une variable va servir : - aux calculs de probabilité de réalisation d'évènements, - à la déduction - à l'inférence statistique

C - Lois de probabilités 1. Préambule Déduction : prédire, à partir d'une population connue ou supposée connue, les caractéristiques des échantillons qui en seront prélevés Induction (inférence) : prédire les caractéristiques d'une population inconnue à partir des statistiques déterminées dans un échantillon représentatif de cette population. Extrapolation des observations réalisées dans un échantillon à l'ensemble de la population

C - Lois de probabilités 1. Préambule

m ? Echantillon Population Intéressons nous, par exemple, à l’information “moyenne” On étudie les populations à partir d’échantillons (représentatifs) On part des seules informations disponibles : et n m ? Population taille ? Inaccessible m : caractéristique théorique ou attendue Echantillon taille : n (n_échantillon) représentatif : observée Un tel échantillon va-t-il nous permettre de préciser la population dont il pourrait être issu ? Risque seuil a Risques ao et b ENCADREMENT DE m m1 < m < m2

C - Lois de probabilités 1. Préambule Epreuve : expérience - qui peut être reproduite dans les mêmes conditions autant de fois que l'on veut, - dont le résultat n'est pas prévisible - et pour laquelle on peut définir l'ensemble des résultats possibles. L'événement : est un sous ensemble des résultats possibles de l'épreuve.

C - Lois de probabilités Préambule Quelques rappels sur les probabilités  séance libre sur internet Définition ; 2 cas à considérer Exemples Loi binomiale Loi de Poisson Calcul de probabilités dans le cas des lois continues Loi normale Passage d’une loi binomiale à une loi normale

Loi des grands nombres (Jacques Bernoulli) C - Lois de probabilités 2. Quelques rappels sur les probabilités P(A) = lim nA/N Ng Loi des grands nombres (Jacques Bernoulli) P(A) = fA  e e : incertitude/erreur sur l'estimation de la probabilité à partir des données d'un échantillon e g0 Ng

C - Lois de probabilités 2. Quelques rappels sur les probabilités

C - Lois de probabilités 2. Quelques rappels sur les probabilités

C - Lois de probabilités 2. Quelques rappels sur les probabilités Exercice "L'examen de TP" On fait passer l'examen de TP de biochimie aux étudiants de master d'une grande université (250 inscrits). L'examen consiste en 2 manips, M1 et M2, notées chacune sur 10. Un étudiant "réussit" une manip s'il obtient au moins la note de 5/10 à cette manip. Un étudiant est reçu à l’examen de TP s’il a réussi les deux manips. On constate que la probabilité de réussir la manip M1 est de 0,5. La probabilité de réussir la manip M2 est, quant à elle, de 0,6. Enfin, la probabilité qu'un étudiant réussisse la manip M2 alors qu’il a réussit la manip M1 est de 0,8. Q1 : Réussir M1et M2 sont-ils deux évènements indépendants ? Reponse : non car P(M2/M1)  P(M2) Q2 : Quelle est la probabilité d’être reçu à l’examen de TP de biochimie ? Réponse : P(M1M2) = P(M2/M1).P(M1) P(M1M2) = 0.8.0.5 = 0.4

C - Lois de probabilités 3. Définition ; 2 cas à considérer Une définition très simple … Une loi de probabilité est entièrement définie par l’ensemble des valeurs possibles prises par la variable aléatoire et les probabilités d’apparition de chacune de ces valeurs. … qui demande un peu de précision Dans le cas d’une variable aléatoire X discrète, une loi de probabilité est entièrement définie l ’ensemble des couples (k, p[X=k]) (k Entier, en général) p[X=k] a un sens! Dans cas d’une Variable Aléatoire X continue, une loi de probabilité est définie l’ensemble des valeurs (e , p[X> e]) (e Réel) p[X= e] = 0 ! Prendre p[X< e] dans la définition reviendrait au même

C - Lois de probabilités 3. Définition ; 2 cas à considérer Espérance ou moyenne théorique d’une loi de distribution Barycentre de la distribution (valeur pas toujours prise par la variable!)

C - Lois de probabilités 3. Définition ; 2 cas à considérer

C - Lois de probabilités 3. Définition ; 2 cas à considérer

C - Lois de probabilités 3. Définition ; 2 cas à considérer Exercice « les pois de Mendel » Soit le croisement de pois à fleurs jaunes (A, caractère dominant) et vertes (a). Calculer la probabilité qu’une plante à fleurs jaunes de la deuxième génération (c’est-à-dire obtenue par croisement de deux hétérozygotes) soit hétérozygote. Solution Soit J : « les fleurs sont jaunes » et H : « la plante est hétérozygote » La probabilité recherchée est P(H / J) (« fleur jaune » est le caractère établit) En se servant de la loi de probabilité établie auparavant : P(H / J) = P(H  J )/P(J) P(J) = 3 / 4 (A dominant) H  J = {Aa, aA}= H  P(H  J ) = 2 / 4 P(H / J) = P(H  J )/P(J) = 2/3 Génotype [AA] [Aa] [aa] Probabilité 1/4 1/2 1/4

C - Lois de probabilités 3. Définition ; 2 cas à considérer Commentaire Les évènements (génotypes) ont été pris ici également probables. Ce modèle ne convient pas aux primevères pour le caractère des feuilles plates (A) ou ondulées (a) : la fréquence expérimentale du nombre de feuilles plates est voisine de 4/5 (les plantes à feuilles ondulées sont moins viables que celles à feuille plates). Seule l’expérience permet de décider si les valeurs attribuées aux probabilités sont ou non satisfaisantes pour la description du phénomène étudié. Le modèle statistique doit tenir compte des données biologiques

C - Lois de probabilités 4. Exemples

C - Lois de probabilités 4. Exemples Avec cet exemple nous visualisons : variable aléatoire = fonction la loi de probabilité Calcul de probabilités possible à partir de la distribution Nous pouvons calculer la moyenne de la distribution

C - Lois de probabilités 5. Loi Binomiale La solution du problème des épreuves répétées conduit à la loi binomiale. On jette 5 fois de suite une pièce de monnaie non truquée. Quelle est la probabilité d’obtenir 2 fois "face" à l'issue des 5 jets ? -  Quelle est l’épreuve associée ? - Variable de Bernouilli : pour chaque lancé de la pièce, Y=0 si le résultat est ‘Pile’ (échec/absence caractéristique) ; Y=1 si le résultat est face ’Face’ (réussite/présence caractère) - Echantillon ou population ? - Variable aléatoire associée ? - Ensemble des résultats possibles ? - Quelle est la loi de distribution ? - Quels sont la moyenne et l'écart-type de la distribution ? - Représentation graphique

C - Lois de probabilités 5. Loi Binomiale Vers le calcul d’une probabilité : P(X=2) - Variable aléatoire associée ? Résultats possibles Généralisation du processus

Commençons par établir la probabilité : P(X=1)

Commençons par établir la probabilité : P(X=1)

Calcul d’une probabilité : P(X=2)

Calcul d’une probabilité : P(X=2)

Généralisation du processus : P(X=k)

Généralisation du processus : P(X=k)

C - Lois de probabilités 5. Loi binomiale

C - Lois de probabilités 5. Loi Binomiale

C - Lois de probabilités 5. Loi Binomiale

C - Lois de probabilités 5. Loi Binomiale

C - Lois de probabilités 5. Loi Binomiale

C - Lois de probabilités 5. Loi Binomiale X, V. A. discrète, "nombre de réalisations d'un certain événement E lors des n répétitions d'une même épreuve" X B (n, P) Espérance (moyenne théorique) : n P (valeur pas toujours prise par la variable!) variance : n P (1- P) Cependant cette loi est peu pratique à utiliser lorsque n est grand (calculs fastidieux!) Tables de la loi binomiale… Approche par d'autres lois lorsque c'est possible…

Soit la variable Po = X/N , avec X : VA binomiale. C - Lois de probabilités 5. Loi Binomiale Soit la variable Po = X/N , avec X : VA binomiale. (proportion d’individus satisfaisant à la définition de la VA X) Quelle est la loi de probabilité suivie par Po? Quels sont la moyenne et la variance de Po ? Espérance : P

C - Lois de probabilités 5. Loi Binomiale Po, V. A. discrète, "proportion de réalisations d'un certain événement E lors des n répétitions d'une même épreuve" Po B (n, P) Espérance (moyenne théorique) : P (valeur pas toujours prise par la variable!) variance : P (1- P) / n Les distributions de X et Po sont toutes deux des lois binomiales de paramètres n et P mais elles n'ont pas la même moyenne ni la même variance

C - Lois de probabilités 5. Loi Binomiale Exercice « Le technicien expérimenté » Le technicien d’un laboratoire pilote réalise une manipulation très délicate qu’il ne rate que dans 30 % des cas : l’injection d’un fragment d’ADN contenant un gène humain dans le noyau d’un oeuf de souris (étape cruciale pour obtenir des souris transgéniques). Il procède par série de 5 manipulations. Grâce à son expérience, il répète un assez grand nombre de fois ses séries de manipulations dans des conditions pratiquement identiques. La V.A.  d’étude est X = « nombre de manipulations réussies par série de 5 » Quel est le type de la V.A. X ? Représentez graphiquement la distribution de X Quels sont l’espérance et l’écart-type de cette distribution ? Hypothèse : on supposera sans le démontrer que les manipulations sont toutes indépendantes les unes des autres (effet de la fatigue, impact d’un échec ou d’une réussite sur la manip suivante non pris en compte)

C - Lois de probabilités 5. Loi Binomiale Espérance : 3.50 Ecart-type : 1.02

C - Lois de probabilités 5. Loi Binomiale Exercice "sachets de graines" Un producteur de graines vient de lancer une superbe variété de fleur. Il garantit (sur 1 an) que seules 2 graines sur 10 ne germent pas. Chaque sachet mis en vente contient 200 graines. / Indiquez combien de fleurs peut donner en moyenne un sachet de graines. b/ Quel est l'écart type associé ? c/ Pour obtenir un massif de 500 fleurs, combien de sachets faut-il acheter en moyenne ? (Indiquez votre raisonnement). Vous n'oublierez pas de bien définir la VA sous jacente et d'indiquer sa nature (qualitative, quantitative discrète ou quantitative continue).

C - Lois de probabilités 5. Loi Binomiale Exercice "sachets de graines " X = « Nombre de graines donnant à une fleur sur un échantillon de 200 graines » P=1-2/10=0,8 N=200 m=NP=200x0,8=160 Variance=NP(1-P)=200x0,8x0,2=32 s=5,7 En moyenne un sachet permet d’obtenir 160 fleurs. Dans ces conditions, il faut 4 sachets pour atteindre au moins l’effectif de 500 fleurs (3x160=480, insuffisant et 4x160=640, OK!). Rq : On pourra préciser l’incertitude en approchant la loi par une distribution normale Avec 3 paquets, seulement 12% de chances (environ) d’obtenir plus de 500 graines

C - Lois de probabilités 5. Loi Binomiale Exercice « Séquence Random » On considère une chaîne polypeptidique de n acides aminés générée de façon aléatoire. Soit n=50, taille de la séquence Hypothèse de départ : on considèrera les 20 acides aminés essentiels - Q1 - Quelle est la probabilité de trouver plus de 50% de résidus proline dans cette séquence aléatoire ? - Q2 - Quelle est la probabilité de trouver le tripeptide ‘LLL’ dans cette séquence polypeptidique ? - Q3 - Un poly L , c’est à dire une séquence polypeptidique constituée uniquement du résidu leucine ?

Correction de l' exercice « Séquence Random » P ( Po > 0.5) = P ( X > 25) Po suit une B (50, 0,05) Variable de Bernouilli associée Présence Proline associée à X=1 ; P(X=1)=1/20 Absence Proline (présence de tout autre aa) associée à X=0 ; P(X=0)=19/20=0,95 P ( Po > 0.5) = 0 Application numérique : utiliser table de la loi binomiale ou ordinateur! Exemple : en saisissant LOI.BINOMIALE(25;50;0,05;VRAI) dans Excel, le résultat recherché est le complémentaire à 1 de cette valeur, donc 0

Correction de l' exercice « Séquence Random » Soit n : nombre de résidus dans la séquence polypeptidique ; Soit Nt : nombre de tripeptides dans une séquence de n résidus d'acides aminés Nt = n – 3 +1 Ici : Nt = 50 – 3 +1 = 48 Variable de Bernouilli / Probabilité élémentaire : Pour chaque tripeptide considéré dans la séquence Présence de LLL , W=1 P(W=1)=(1/20)3=0.000125 Absence de LLL , W=0 P(W=0)=1-0.000125=0.999875 Soit la V.A. Y : "nombre de tripeptides LLL dans la séquence aléatoire de 50 résidus d'aa" Y suit une loi binomiale B (48, 0.000125) {Présence de LLL dans la séquence} = (Y > 0) P (Y > 0) = 1 – P(Y=0) P(Y=0) = 1x1x(0.999875)48 = 0.99402 P (Y > 0) = 1 – P(Y=0) = 1-0.9940 = 0.006 (ordre de grandeur : 1%) - Q3 - La probabilité recherchée est : (1/20)50 , pratiquement nulle! On peut également dans ce cas utiliser l'approximation par la loi de Poisson de paramètre l=48x0.000125 ; P(0.006) Saisir sous Excel : =LOI.POISSON(0;0,006;FAUX)

C - Lois de probabilités 5. Loi Binomiale Quelques cas où l'on rencontre de la LOI BINOMIALE :

C - Lois de probabilités 6. Loi de Poisson Exemple introductif Dans des tests labos faits sur des rats, l’étalement sur la peau d’une crème de soin du commerce peut provoquer une rougeur dans 20 cas sur 1000. Soit X la variable aléatoire "Nombre de rats présentant une rougeur après dépôt du produit sur N individus" A/ Quelle loi de probabilité suit X ? B/ Quelle est la probabilité d'observer moins de 3 cas de réaction sur 100 étalements ? En déduire la probabilité d'observer au moins 3 cas de réaction sur 100 étalements. Que constatons-nous dans cet exemple ? X suit une loi binomiale dont la moyenne est très proche de la variance Et P petite pour N plutôt grand  évènement rare Moyenne : nP = 0.02*100 = 2 Variance : nP(1-P) = 100*0.02*0.98 = 1.96

C - Lois de probabilités 6. Loi de Poisson Cas d'application (Siméon Denis Poisson 1781-1840) Lorsque le nombre d'épreuves n est grand et P très petit (proche de 0), la loi Binomiale B (n, P) tend vers une loi de Poisson P (l) de seul paramètre l (espérance et variance de la loi binomiale approchée par la loi de Poisson). La loi de Poisson est une distribution discrète. Elle est tabulée   P(X=k) = e-l lk / k! Côté pratique On vérifiera d'abord que les calculs ne peuvent être approchés par une distribution normale, plus pratique à utiliser

C - Lois de probabilités 6. Loi de Poisson Nous sommes maintenant armés pour résoudre notre exemple introductif Dans une expérience faite sur des rats, l’étalement sur la peau d’une crème de soin du commerce peut provoquer une rougeur dans 20 cas sur 1000. Soit X la variable aléatoire "Nombre de rats présentant une rougeur après dépôt du produit sur N individus" A/ Quelle loi de probabilité suit X ? B/ Quelle est la probabilité d'observer moins de 3 cas de réaction sur 100 étalements ? En déduire la probabilité d'observer au moins 3 cas de réaction sur 100 étalements. On va utiliser une loi de Poisson de paramètre : l=2 Et si on le faisait avec R ?.... Fonction : dpois

C - Lois de probabilités 6. Loi de Poisson Réels domaines d’utilisation d’une loi de Poisson  Nombre d’évènements par unité de volume, de surface, de temps Nombre de poissons par mètres cube d’eau Passages d’un ours dans un site des Pyrénées sur une semaine Concentration de bactéries (hématimètre) dans un lac (homogénéité) Nombre d’insectes d’une certaine espèce capturés sur un filet en une nuit en forêt amazonienne Nombre de désintégration d’un radio-isotope par minute Nombre d’appels enregistrés par un standard téléphonique dans une courte période de temps Nombre de skieurs empruntant un télésiège en l’espace d’une heure dans une petite station alpine Etc…

C - Lois de probabilités 6. Loi de Poisson Exercice « les ours des Pyrénées » Un écologiste étudie le passage des ours (récemment introduits) en un point précis d’une rivière séparant un champ d’une petite forêt des Pyrénées. A l’issue d’un travail long (plusieurs semaines) et rigoureux, il observe en moyenne 4 individus par jour. a/ Quelle est la probabilité qu’il détecte précisément 3 ours en l’espace de 12 h ? b/ Quelle est la probabilité qu’il détecte entre 1 et 3 ours en 6 heures ? a/ l = 4 individus / j uniformité sur une courte période de temps : l = 2 ind. / 12 h calcul de P(X=3) avec X suit une loi de Poisson de paramètre l=2 (voir table) P(X=3) =0.18 b/ calcul de P(1 Y  3) avec Y suit une loi de Poisson de paramètre l=1 Loi discrète donc P(1 Y  3) = P(Y=1)+P(Y=2)+P(Y=3) (voir table) P(1  Y  3) = 0.3679+0.1839+0.0613 = 0.6131 (0.61 est suffisamment précis)

C -. Lois de probabilités 7 C - Lois de probabilités 7. Calcul de probabilités dans le cas des lois de distribution continues Taux d’une hormone en mg/ml Avec la densité de fréquence relative on a facilement accès aux probabilités, associées aux surfaces du diagramme.

Taux d’une hormone en mg/ml C - Lois de probabilités 7. Calcul de probabilités dans le cas des lois de distribution continues Lois continues L’augmentation de la taille de l’échantillon permet des classes de plus en plus fines et fait tendre la densité de fréquence relative vers une courbe appelée densité de probabilité. Densité de probabilité Les lois de distributions continues (loi normale, Chi-deux, Student, etc…) sont entièrement caractérisées par l’équation de leur fonction de densité de probabilité f(x).

C -. Lois de probabilités 7 C - Lois de probabilités 7. Calcul de probabilités dans le cas des lois de distribution continues

C -. Lois de probabilités 7 C - Lois de probabilités 7. Calcul de probabilités dans le cas des lois de distribution continues

C - Lois de probabilités 8. Loi Normale

X N (m , s) C - Lois de probabilités 8. Loi Normale Loi de Laplace–Gauss quand est-elle rencontrée ? Lorsqu'une grandeur subit l'influence d'un grand nombre de facteurs (ou paramètres ; non tous identifiés, voire identifiables!) tous indépendants, qui, pris isolément, ne contribuent que très faiblement à faire varier la grandeur étudiée, les valeurs prises par la variable aléatoire (continue) associée à  la grandeur se distribuent selon la loi de Laplace-Gauss (appelée Loi Normale). Cette loi revêt un caractère de généralité. On y fait très souvent appel en Biologie  distribution continue et symétrique  caractérisée par sa moyenne m et son écart-type s associée à une variable aléatoire X quantitative continue X N (m , s)

C - Lois de probabilités 8. Loi Normale Propriétés de la Loi Normale N (m, s) , repères graphiques Définition des fonctions de densité de probabilité et de partition Une probabilité est une aire (comme pour toute distribution continue) Loi Normale centrée réduite Changement de variable et conservation des aires Lecture des tables de la Loi Normale centrée réduite Un exemple Bilan de ce qu’il faut retenir Exercices Loi Log-Normale Passage d’une loi Binomiale à une loi Normale

C - Lois de probabilités 8. Loi Normale m-s m+s X

C - Lois de probabilités 8. Loi Normale Z 1 -1 -1,96 1,96

C - Lois de probabilités 8. Loi Normale X1 X2 Z1 1 Z2 X Z

C - Lois de probabilités 8. Loi Normale a t Z

C - Lois de probabilités 8. Loi Normale Z a t

C - Lois de probabilités 8. Loi Normale Du Côté d’EXCEL : (loi normale quelconque) loi.normale renvoie la valeur de P(X<z) pour z donné loi.normale.inverse renvoie z à partir de P(X<z)

Seuls les grains de masse supérieure à 2,5 g sont commercialisables C - Lois de probabilités 8. Loi Normale Exercice "Les grains de maïs" Les ingénieurs d'une coopérative agricole ont constaté que les grains d'un maïs issus d'une sélection (résistant mieux aux intempéries) sont moins lourds que ceux du maïs utilisé jusqu'alors par la coopérative. Suite à des statistiques répétées sur plusieurs années, on note que la masse des grains est distribuée normalement dans les 2 populations de maïs, avec pour moyennes et écart-type exacts : - maïs utilisé par la coopérative  moyenne : 3,4 g ; écart-type : 0,5 g - variété sélectionnée pour sa résistance aux intempéries  moyenne : 3,2 g ; écart-type : 0,5 g Seuls les grains de masse supérieure à 2,5 g sont commercialisables A/ Calculez la probabilité des évènements suivants, d'une part pour le maïs utilisé par la coopérative, d'autre par pour le maïs sélectionné : - La masse des grains est inférieure à 2,5 g - La masse des grains est comprise entre 3,0 et 4,0 g - La masse des grains est supérieure à 4,0 g B/ On prélève au hasard un grain de chacun des 2 types de maïs, quelle est la probabilité qu'un grain de maïs utilisé par la coopérative ait une masse supérieure à celui du maïs sélectionné ? C/ On dispose de données complémentaires qui montrent le traitement par un produit K translate les distributions de 100 mg sur la gauche. - Quelle est la proportion de grains non commercialisables chez le maïs exposé au traitement K et chez le maïs non exposé au traitement K ? - Quelle est l'augmentation relative du risque de non-commercialisation chez le maïs exposé au * traitement K par rapport au maïs non exposé ?

Rappels occasionnés par l’exercice Propriétés de l'espérance et de la variance L'espérance, ou moyenne, d'une somme de variables aléatoires est égale à la somme des espérances de ces variables  E(X1+ X2 + ... + Xn) = E(X1) + E (X2) + ...+ E(Xn) La variance d'une somme, doit tenir compte du facteur covariance : Var(X+Y) = Var(X) + Var(Y) + 2 cov(X,Y), avec cov(X,Y) = E(XY) – E(X).E(Y) Toutefois, si X et Y sont 2 VA indépendantes, cov(X,Y) = 0 et dans ce cas : Var(X+Y) = Var(X) + Var(Y). Coefficient de corrélation La covariance de 2 variables X et Y dépend des unités choisies pour mesurer X et Y (par ex, lorsque X est exprimé en Molaire tandis que Y l’est en mili-Molaire, cela induit un facteur 1000). Pour s’affranchir de ce problème, on utilise un coefficient (noté ρ) très pratique, le coefficient de corrélation de X et de Y défini par ρ = cov(X,Y) / σXσY

Evolution de la forme d’une distribution binomiale lorsque n est grand C - Lois de probabilités 9. Passage d’une loi binomiale à une loi normale Evolution de la forme d’une distribution binomiale lorsque n est grand n=50 P=0.5 nP=25 n(1-P)=25 P=0.7 nP=35 n(1-P)=15

et que n P > 5 et n(1- P) > 5 Alors n P > 5 et n(1- P) > 5 C - Lois de probabilités 9. Passage d’une loi binomiale à une loi normale Pratique : Les calculs impliquant une distribution binomiale peuvent, dans certains cas, être approchés par une distribution normale (plus pratique à utiliser) On utilise la moyenne et l’écart-type de la Binomiale pour définir la Normale Lorsque X B (n , P) et que n P > 5 et n(1- P) > 5 Alors n P > 5 et n(1- P) > 5 les calculs de probabilité peuvent être approchés en utilisant La loi de distribution Y N (n P , ) C’est en fait ainsi que la loi Normale a été (re)découverte par Laplace vers 1800 ! Remarque : Lorsque les conditions ne permettent pas cette approximation, il faut alors essayer … la loi de Poisson …

et que n P > 5 et n(1- P) > 5 Alors n P > 5 et n(1- P) > 5 C - Lois de probabilités 9. Passage d’une loi binomiale à une loi normale Pratique : Les calculs impliquant une distribution binomiale peuvent, dans certains cas, être approchés par une distribution normale (plus pratique à utiliser) On utilise la moyenne et l’écart-type de la Binomiale pour définir la Normale Lorsque P0 B (n , P) et que n P > 5 et n(1- P) > 5 Alors n P > 5 et n(1- P) > 5 les calculs de probabilité peuvent être approchés en utilisant La loi de distribution Y N ( P , ) Remarque : Lorsque les conditions ne permettent pas cette approximation, il faut alors essayer … la loi de Poisson …

C -. Lois de probabilités 9 C - Lois de probabilités 9. Passage d’une loi binomiale à une loi normale Exercice "Kit ou … double?" L'industriel fabricant des kits de biotechnologie a mis en place une technique éliminant les éléments défectueux. A l'issue de cette étape, 99% des kits vendus sont corrects et utilisables sans risque de disfonctionnement. L'industriel vient juste de vendre un lot de 1000 kits à l'un de ses distributeurs. Préoccupé par son image de marque, il a demandé à une jeune stagiaire de lui donner, dans l'heure, la probabilité qu'il y ait plus de 2% de kits défectueux dans le lot vendu. Qu'en serait-il s'il avait vendu : - un lot de 10000 kits? - un lot de 100 kits? Tracez les variations de la variance en fonction de la taille de l'échantillon

Exercice "Kit ou … double?" Définissons les variables aléatoires utilisables dans cet exercice, X : « Nombre d’éléments défectueux dans un lot de N kits de biotechnologie vendus » Po : « Proportion d’éléments défectueux dans un lot de N kits de biotechnologie vendus » L’épreuve de Bernoulli, répétée N fois, associe la probabilité P=1-0,99=0,01 (paramètre) à l’évènement « un kit pris au hasard est défectueux ». L'industriel vient juste de vendre un lot de 1000 kits à l'un de ses distributeurs. N=1000 X suit la loi binomiale B(1000, 0,01) de moyenne NP=10 Po suit la loi binomiale B(1000, 0,01) de moyenne P=0,01 et d’écart type [P(1-P)/N]1/2 =[0,01x0,99/1000]1/2=0,0032 P(Po >0,02) = P(X>20) = 1-[P(X=0)+P(X=1)+….+P(X=20)] . Ce calcul impliquant la somme de 21 termes binomiaux est bien trop fastidieux. On s’intéresse donc de suite sur l’approximation par une loi Normale. Comme NP et N(1-P) sont tous deux supérieurs à 5, cette approximation est possible. Soit Y la variable aléatoire suivant la loi normale N(P, [P(1-P)/N]1/2), les fluctuation de Po peuvent être approchées par la loi de Y. Pour N=1000 et P=0,01, Y suit la loi N(0,01, 0,0032) P(Po>0,02)=P(Y>0,02) P(Y>0,02)=P[Z>(0,02-0,01)/0,0032)], Z suivant la loi normale centrée réduite N(0,1) P(Y>0,02)=P(Z>3,17) P(Z>3,17)=0,00076 Ainsi la probabilité recherchée P(Po >0,02) est proche de 0,08%. L’industriel peu se rassurer! S'il avait vendu un lot de 10000 kits, l’approximation Normale est encore meilleure. La moyenne ne change pas, elle est toujours égale à 0,01 mais l’écart type de la loi B(1000, 0,01) valant [0,01x0,99/10000]1/2=0,000995 (à peu près 0,001), la position de la valeur 0,02 sur la distribution normale est cette fois à plus de 10 écart-type de la position de la moyenne 0,01! Autrement dit la probabilité recherchée est nulle.

Exercice "Kit ou … double?« (suite) S'il avait vendu un lot de 100 kits, NP=1, étant inférieur à 5, l’approximation Normale n’est cette fois plus possible. La moyenne de la loi B(100, 0,01) suivie par X vaut NP=1 et la variance est 0,01x0,99x100=0,0099, valeur très proche de la moyenne. On ne peut donc utiliser la loi de Poisson P(1), de paramètre l=1 pour effectuer les calculs. Attention, N=100 donc P(Po >0,02) = P(X>2) P(Po >0,02) = 1-[P(Po=0)+P(Po=0,01)+P(Po=0,02)]=P(X>2) = 1-[P(X=0)+P(X=1)+P(X=2)] P(Po >0,02) =1-[C01000,010x0,99100+ C11000,011x0,9999+C21000,012x0,9998] En utilisant la loi P(1) , P(Po >0,02) =1-(0,3679+0,3679+0,1839) P(Po >0,02) =0,08, cette fois la probabilité n’est pas faible, elle concerne 8 ventes sur 100! Rq : Pour appliquer la loi de Poisson, quelque soit N, il faut P(1-P) proche de P. P->0 1-P->1 P(1-P)-> P NP(1-P)-> NP m->s2 Tableau des variations de la moyenne, de la variance, de l’écart-type de Po et de la probabilité recherchée , en fonction de la taille de l'échantillon : N 100 250 500 1000 10000 m 0,01 0,01 0,01 0,01 0,01 s 0,01 0,0062 0,0045 0,0032 0,001 s2 0,0001 0,00004 0,00002 0,00001 0,000001 P(Po >0,02) 0,080 0,054 0,012 0,00076 0 Le risque est donc faible à partir de 500 kits vendus (probabilité de l’ordre de 1%, ce qui est raisonnable).

C - Lois de probabilités 10. Some more training Exercice : « Les citrons » (extrait de l’examen 2002) Des citrons sont produits dans des conditions reproductibles par une entreprise agroalimentaire du sud de l’Espagne pour laquelle vous travaillez. Ces citrons forment une population de référence. Leur diamètre est distribué normalement dans cette population avec une moyenne de 7,0 cm et un écart-type de 1,0 cm. Un dispositif performant permet également de détecter, sur chaque citron, la concentration de pesticide absorbé par l'écorce. Cette grandeur est, elle aussi, distribuée normalement dans la population référence avec une moyenne de 2,5 mg/ml et un écart-type de 0,2 mg/ml. Les citrons sélectionnés pour la vente sont ceux dont le diamètre (*) est compris entre 5,5 et 9,0 cm (inclus) et dont la concentration de pesticide absorbé par l'écorce est inférieure ou égale à 2,8 mg/ml Calculez la proportion de citrons sélectionnés pour la vente dans la population référence. (* Les citrons trop petits n’intéressent personne tandis que les citrons trop volumineux ont une écorce trop épaisse et, très souvent, une forme irrégulière déplaisant aux consommateurs).

Exercice : « Les citrons » (extrait de l’examen 2002) Population référence : citrons produits dans des conditions reproductibles par la firme agroalimentaire (population infinie). Soit X la variable aléatoire (quantitative continue) : "diamètre des citrons en cm" ; X suit une loi N (7,0, 1,0) Soit Y la variable aléatoire (quantitative continue) : " concentration de pesticide absorbée par l'écorce d'un citron en mg/ml" ; Y suit une loi N (2,5, 0,2) a/ La proportion de citrons sélectionnées pour la vente dans la population référence (population infinie) correspond à la probabilité P[(5,5<X< 9,0)  (Y<2,8)] ; les 2 variables X et Y étant indépendantes : P[(5,5<X< 9,0)  (Y<2,8)] = P(5,5<X< 9,0) x P(Y<2,8) ; en appliquant le changement de variable W=(X-7,0)/1,0 et Z=(Y-2,5)/0,2 : P[(5,5<X< 9,0)  (Y<2,8)] = P(5,5<X< 9,0) x P(Y<2,8) = P(5,5-7,0 < W < 9,0-7,0) x P[Z < (2,8-2,5)/0,2] = P(-1,5 < W < 2,0) x P(Z < 1,5) = [1-P(W>1,5) + P(W > 2,0)] x [1-P(Z > 1,5)] = (1 - 0,0668 + 0,0228) x ( 1 - 0,0668) = 0,9104x 0,9332 = 0,85

C - Lois de probabilités 10. Some more training Exercice "Diamond is the best girl friend... " Tous les ans, le groupe agro-alimentaire DIAMOND (23 usines en Europe) est confronté à une dure réalité : sur cinq réacteurs de la gamme R201 contrôlés, trois en moyenne ont besoin d'une sérieuse révision. Une révision est facturée 500 Euros HT par réacteur. L'usine de Toulouse possède 11 réacteurs de la gamme R201. 1/ Quelle est la probabilité que la facture de la révision de ses réacteurs soit comprise entre 1000 et 1500 Euros HT ? 2/ Quelle est la probabilité qu'elle soit supérieure ou égale à 1500 Euros HT ? 3/ Quel est le coût moyen des réparations ? pour répondre aux questions : Définissez la population et l'échantillon d'étude. Vous allez être amenés à utiliser 2 variables aléatoires. Définissez ces 2 variables. Pour chacune d'elles, vous indiquerez si elle est discrète ou continue. Justifiez vos calculs d'1 ou 2 lignes de commentaires en français.

Exercice "Diamond is the best girl friend... " Population : tous les réacteurs en service dans les 23 usines européennes du groupe agro-alimentaire Echantillon : les 11 réacteurs de l'usine de Toulouse Posons X=« Nombre de réacteurs ayant besoin d’une révision dans un échantillon de 11 » X , variable quantitative discrète, suit une B(11,3/5) ; P=0,6 Appelons R le coût HT d’une réparation. R = 500 euros. Posons Z=« Coût des réparations à réaliser dans l’usine de Toulouse » Z=R.X, avec R constante P(1000 ≤ Z ≤1500) = P(1000 ≤ R.X ≤ 1500) P(1000 ≤ Z ≤1500) = P(1000/R ≤ X ≤ 1500/R) P(1000 ≤ Z ≤1500) = P(2 ≤ X ≤ 3) P(1000 ≤ Z ≤1500) = P(X=2)+P(X=3) P(1000 ≤ Z ≤1500) = 55x0,62x0,49+165x0,63x0,48 P(1000 ≤ Z ≤1500) =0,028 P(Z ≥1500) = P(X ≥ 3) P(Z ≥1500) = 1-P(X<3) =1-[P(X=0)+P(X=1)+P(X=2)] P(Z ≥1500) = 1-[1x0,60x0,411+11x0,61x0,410+55x0,62x0,49] P(Z ≥1500) = 1-0,0059 P(Z ≥1500) = 0,9940 L’espérance de la loi B(11, 0.6) est mX=NP=11.0,6=6,6 Le coût moyen des réparations est : R. mX=500x6,6=3300 euros

C - Lois de probabilités 10. Some more training Exercice : « Du tabac pour la bonne cause » Des études menées sur une exploitation pilote ont montré que la quantité d’une protéine recombinante produite par un pied de tabac peut être représentée par un variable normale de moyenne 10 mg et d’écart-type 2 mg. Quelle est, dans ces conditions, la probabilité d’observer dans cette exploitation un plan ayant produit plus de 13 mg de protéine ? On prélève au hasard 50 plans de tabac de l’exploitation pilote. Quelle est la probabilité d’observer au moins 3 plans ayant produit chacun plus de15 mg de la protéine recombinante? - Commentez ces résultats Il est conseillé de bien définir la VA et la loi suivie par la VA pour répondre aux questions, de faire un schéma si possible.

Exercice : « Du tabac pour la bonne cause » Posons X =« quantité en mg d’une protéine recombinante produite par un pied de tabac » X suit la loi N(10, 2). Nous recherchons P(X>13). P(X>13)=P[Z>(13-10)/2] , Z suivant la loi normale centrée réduite N(0, 1). P(X>13)=P[Z>1,5] P(X>13)=0,0967 , soit 10% environ, ce qui n’est donc pas négligeable. Posons Y =« nombre de plans de tabac produisant plus de 15 mg de protéine recombinante parmi les 50 plans récoltés» Y suit la loi binomiale B(50, P(X>15)). Il faut au préalable déterminer P(X>15). P(X>15) = P[Z>(15-10)/2] ; P(X>15)=P[Z>2,5]=0,0062 Ainsi, plus précisément, Y suit donc une binomiale B(50, 0,006). On recherche P(Y ≥ 3)=P(Y>2)=1-P(Y ≤ 2) P(Y ≥ 3) = 1-[P(Y=0)+P(Y=1)+P(Y=2)] P(Y ≥ 3) = 1-[C0500,0060x0,99450+ C1490,0061x0,99449+C2480,0062x0,99448] Nous remarquons immédiatement que la probabilité associée à l’épreuve de Bernoulli (probabilité élémentaire) est très petite. Ce qui laisse espérer l’utilisation d’une loi de Poisson. La moyenne de la binomiale est NP=50x0,006=0,3 ; la variance est s2=NP(1-P)=50x0,006x0,994=0,3 Moyenne et variance sont suffisamment proches pour utiliser une loi de poisson de paramètre l=0,3. P(Y ≥ 3) = 1 - (0,7408+0,2222+0,0333) (Lecture de la table de la loi P(0,3)) P(Y ≥ 3) = 0,004 ; probabilité très faible!

C -. Lois de probabilités 11 C - Lois de probabilités 11. Fluctuation d’échantillonage d’une proportion expérimentale (observée) k p(X=k) Po 0 0.031 0.025 0.156 0.133 0.313 0.350 0.313 0.302 0.156 0.168 0.031 0.027 moy. 2.500 2.540 Résultat de l’échantillonnage (expérience réalisée sur un grand nombre d’échantillons) Loi théorique (atteinte lorsque le tirage concerne une nombre infini d’échantillons)

C - Lois de probabilités 12. Travail avec R Travail demandé : Résoudre tous les exercices proposés en cours avec le logiciel R (Un bon entraînement pour les examens pratique et théorique)