Lois de Probabilité Discrètes

Slides:



Advertisements
Présentations similaires
Atelier 1 Le problème du surpoids sur géogébra. Etude de la prévalence du surpoids: (document Ressources pour la classe de terminale) Situation: On souhaite.
Advertisements

Nouveau programme de 3ème Probabilités Document de travail – Académie de Rouen
Chapitre 5. Modèles probabilistes continus Variable aléatoire continue et loi de probabilité continue Loi uniforme Loi exponentielle Loi normale Loi normale.
annuités, mensualités remboursements constants VPM pendant une période ininterrompue
Calcul de probabilités
PROBABILITÉS.
Application des lois de probabilité -Variable aléatoire discrète-
La ProbabilitÉ.
Je fabrique mon stabile
PowerPoint 5 : Candidats et enjeux locaux
La représentation des atomes
Faculté de Sciences Sociales de Strasbourg – L1S – 2017 Séance 3
Algorithme et programmation
1.3 COORDONNÉES DES POINTS
4°) Intervalle de fluctuation :
1 - Construction d'un abaque Exemple
Probabilités.
Chapitre 13 : Echantillonnage
Simuler des probabilités
Hasard et Probabilités, P. Thompson
Plans d’expériences: Plans factoriels
Les Plans d’expériences: Plans Factoriels
Organisation des Données et Représentations Graphiques
Mouvement harmonique simple
Semaine #4 INF130 par Frédérick Henri.
4.3 Estimation d’une proportion
3.4 Lois discrète 2 cours 15.
Eléments de la Théorie des Probabilités
Méthode Taguchy Analyse de la variance Anavar
4.2 Estimation d’une moyenne
3.5 Lois continues 1 cours 16.
Troisième Chapitre 9: Les Probabilités
Introduction aux statistiques Intervalles de confiance
1.2 dénombrement cours 2.
Lois de probabilités Intervalle de fluctuation
Méthodologie scientifique
Formation sur les bases de données relationnelles.
POL1803: Analyse des techniques quantitatives
LES PROBABILITÉS Par : R . BOULAHBAL 2016 Free Powerpoint Templates.
LOG770 Annexe A Éléments de probabilité
 1____Probabilité  2______variables aléatoires discrètes et continues  3______loi de probabilités d’une v a  4_______les moyens et les moyens centraux.
Chapitre 3 : Caractéristiques de tendance centrale
LE MAGNÉTISME.
SDRP & MA Problème du rendez vous : un algorithme probabiliste et une analyse probabiliste 09/11/2018.
Eléments de la Théorie des Probabilités
Évaluation diagnostique
SIMPLIFICATION D’UNE RACINE CARREE.
A. Zemmari SDRP & MA Modèles et Approches Formels pour les Systèmes Distribués -Algorithmes distribués probabilistes.
Les Variables.
Statistique descriptive Bivariée
4°) Intervalle de fluctuation :
Information sur survies des patients en dialyse péritonéale, en France métropolitaine dans le RDPLF Année 2016.
Lois de Probabilité Discrètes
Question flash TSTI2D.
Programme d’appui à la gestion publique et aux statistiques
Université de la méditerranée
STAT D103 Esteban Callejas Perez H.4.145
Mesures de Position Dispersion et Forme
STAT D103 Esteban Callejas Perez H.4.145
Les nombres complexes Saison 1 - Épisode 2. Les nombres complexes Saison 1 - Épisode 2.
BIO1130 LAB 4 MICROÉVOLUTION.
Présentation 4 : Sondage stratifié
Présentation 9 : Calcul de précision des estimateurs complexes
MATHÉMATIQUES FINANCIÈRES I
chapitre 3 Les Statistiques
CH 8 : L’INTERESSEMENT ET LE PLAN D’EPARGNE SALARIALE
Présentation 6 : Sondage à plusieurs degrés
LE TORSEUR STATIQUE 1) Définition 2) Notation 3) Deux cas particuliers
Statistiques et probabilités
Dérivation – Fonctions cosinus et sinus
Transcription de la présentation:

Lois de Probabilité Discrètes STAT D101 Esteban Callejas Perez ecalleja@ulb.ac.be H.4.244

Une permutation permettre connaitre de combien façons distinctes peut-on organiser 𝑛 choses différentes. Alors, le nombre de permutations possibles de 𝑛 choses est: 𝑛!=factorial de 𝑛 Etant donné 𝑛 individus, quel est le nombre de sous-ensembles non ordonnés de 𝑟 individus choisis parmi eux ? Un tel sous-ensemble non ordonné est appelé́ une combinaison. Le nombre de combinaisons de 𝑟 individus choisis parmi 𝑛 est égal à: 𝐶 𝑛 𝑟 = 𝑛 𝑟 = 𝑛! 𝑟! 𝑛−𝑟 !

Distribution Uniforme (discrète) Avec l’ensemble 𝒱 de 𝑛 valeurs possibles que peut prendre la v.a. 𝑋: 𝒱= 𝑎,𝑏,⋯,𝑛 Pour tout 𝑥∈𝒱: 𝑝 𝑥 =𝑃 𝑋=𝑥 = 1 𝑛 Notation: 𝑋~𝒰 𝑎,𝑏,⋯,𝑛 Si la v.a. 𝑋 suit une Distribution Uniforme de taille 𝑛, alors: 𝐸 𝑋 = 𝑎+𝑛 2 et 𝑉 𝑋 = 𝑏−𝑎+1 2 −1 12

Le Schéma Bernoulli Soit une expérience aléatoire ℰ au cours de laquelle soit l'évènement 𝐸 se réalise. Désignons par 𝑝 (avec 0<𝑝<1) la probabilité́ de réalisation et par 𝑞=1−𝑝 la probabilité́ de non réalisation: 𝑝=𝑃 𝐸 et 𝑞=1−𝑝=𝑃 𝐸 . La v.a. 𝑋 prenant la valeur 1 en cas de succès (c'est-à-dire si 𝐸 se réalise) et la valeur 0 en cas d'échec (c'est-à-dire si 𝐸 ne se réalise pas) suit la loi de Bernoulli de paramètre 𝑝. Sa D.P.1 se caractérise comme suit : l'ensemble des valeurs possibles de 𝑋 est 𝒱= 0,1 𝑝 1 =𝑃 𝑋=1 =𝑝 𝑝 0 =𝑃 𝑋=0 =1−𝑝=𝑞 𝑋 est une variable de Bernoulli de paramètre 𝑝, ou encore une variable indicatrice de la réalisation de l'évènement 𝐸. Si la v.a. 𝑋 suit la Loi de Bernoulli de paramètre 𝑝, alors: 𝐸 𝑋 =𝑝 et 𝑉 𝑋 =𝑝𝑞=𝑝 1−𝑝

Distribution Binomiale Soit une expérience aléatoire ℰ. Au cours de l’expérience aléatoire ℰ: soit l'évènement 𝐸 se réalise (succès): 𝑃 𝐸 =𝑝 soit l'évènement particulier 𝐸 ne se réalise pas (échec): 𝑃 𝐸 =1−𝑝=𝑞 On répète cette expérience aléatoire ℰ, 𝑛 fois, sous des conditions parfaitement identiques et de manière indépendante, de telle sorte que la probabilité de succès (la probabilité que 𝐸 se réalise) reste égale à 𝑝 et la probabilité d'échec (la probabilité que 𝐸ne se réalise pas) reste égale à 𝑞 à chacune des répétitions de ℰ. La v.a. 𝑋 correspondant au nombre de succès (c'est-à-dire au nombre de fois que l'évènement 𝐸 se réalise) au cours des 𝑛 répétitions de l'expérience ℰ possède la D.P.1 suivante : l'ensemble des valeurs possibles de 𝑋 est 𝒱= 0,1,2,⋯,𝑛 pour tout 𝑥∈𝒱: 𝑝 𝑥 =𝑃 𝑋=𝑥 = 𝑛 𝑥 𝑝 𝑥 𝑞 𝑛−𝑥 (cf. la formule du binôme).

𝒱={0,1} et 𝑃 𝑋=0 =1−𝑝=𝑞 et 𝑃 𝑋=1 =𝑝 Nous constatons que cette distribution – appelée Distribution Binomiale – est entièrement spécifiée des que l'on connait 𝑛 (le nombre de répétitions de l'expérience aléatoire ℰ et aussi la plus grande valeur possible de 𝑋) et 𝑝 (la probabilité de succès), appelés respectivement l'exposant et le paramètre de la loi binomiale. C'est pourquoi on indique que 𝑋 admet une distribution Binomiale définie par 𝑛 et 𝑝 au moyen de la notation suivante : 𝑋~𝐵𝑖𝑛 𝑛,𝑝 ou 𝑋~ℬ 𝑛,𝑝 La v.a. 𝑋 sera aussi appelée variable binomiale. Et si 𝑋~ℬ 𝑛,𝑝 , alors 𝐸 𝑋 =𝑛𝑝 et 𝑉 𝑋 =𝑛𝑝𝑞 Cas particulier: Quand 𝑛=1, on a la distribution de Bernoulli. 𝒱={0,1} et 𝑃 𝑋=0 =1−𝑝=𝑞 et 𝑃 𝑋=1 =𝑝

𝑛→∞ et 𝑝→0 de façon que 𝑛𝑝→𝜆 Distribution Poisson La distribution Poisson peut être vue comme le cas extrême d’une distribution Binomiale quand on peut supposer que le nombre des essayes (𝑛) tends vers l’infini et que la probabilité de succès (𝑝) tends vers zéro de façon que 𝑛𝑝 tends vers un valeur constante lambda (𝜆): 𝑛→∞ et 𝑝→0 de façon que 𝑛𝑝→𝜆 La v.a. 𝑋 correspondant au nombre de succès (c'est-à-dire au nombre de fois que l'évènement 𝐸 se réalise) au cours des répétitions infinis de l'expérience ℰ. Elle corresponde aussi a nombre de fois qu’on peut trouver l’évènement après 𝑡 intervalles (Dans ce cas, le on utilise comme paramètre 𝜆𝑡). l'ensemble des valeurs possibles de 𝑋 est 𝒱= 0,1,2,⋯ pour tout 𝑥∈𝒱: 𝑝 𝑥 =𝑃 𝑋=𝑥 = 𝑒 −𝜆 𝜆 𝑥 𝑥!

𝑋~𝑃 𝜆 ou 𝑋~𝑃 𝜆𝑡 (si dans 𝑡 intervalles de temps) Nous constatons que cette distribution – appelée Distribution Poisson – est entièrement spécifiée dès que l'on connait 𝜆 (le paramètre 𝜆=𝑛𝑝 si 𝑛 est trop grand et 𝑝 trop petit, ou la probabilité de succès a chaque intervalle 𝜆). C'est pourquoi on indique que 𝑋 admet une distribution poisson définie par 𝜆 au moyen de la notation suivante : 𝑋~𝑃 𝜆 ou 𝑋~𝑃 𝜆𝑡 (si dans 𝑡 intervalles de temps) La v.a. 𝑋 sera aussi appelée variable poisson. Et si 𝑋~𝑃 𝜆 , alors 𝐸 𝑋 =𝜆 et 𝑉 𝑋 =𝜆

Distribution Binomiale Négative pour compter des échecs avant réussir Soit une expérience aléatoire ℰ. Au cours de l’expérience aléatoire ℰ: soit l'évènement 𝐸 se réalise (succès): 𝑃 𝐸 =𝑝 soit l'évènement particulier 𝐸 ne se réalise pas (échec): 𝑃 𝐸 =1−𝑝=𝑞 On répète cette expérience aléatoire ℰ sous des conditions parfaitement identiques et de manière indépendante, de telle sorte que on peut compter 𝑟 succès, et que la probabilité́ de succès (la probabilité́ que 𝐸 se réalise) reste égale à 𝑝 et la probabilité́ d'échec (la probabilité que 𝐸 ne se réalise pas) reste égale à 𝑞 à chacune des répétitions de ℰ. La v.a. 𝑋 correspondant au nombre de échecs (c'est-à-dire au nombre de fois que l'évènement 𝐸 n’a pas été réalisé) au cours des répétitions de l'expérience ℰ avant d’avoir obtenu les 𝑟 succés. La v.a. 𝑋 possède la D.P.1 suivante : l'ensemble des valeurs possibles de 𝑋 est 𝒱= 0,1,2,⋯,𝑛 pour tout 𝑥∈𝒱: 𝑝 𝑥 =𝑃 𝑋=𝑥 = 𝑥+𝑟−1 𝑟−1 𝑝 𝑟 𝑞 𝑥 .

Nous constatons que cette distribution – appelée Distribution Binomiale Négative – est entièrement spécifiée des que l'on connait 𝑟 (le nombre de succès de l'expérience aléatoire ℰ) et 𝑝 (la probabilité de succès). C'est pourquoi on indique que 𝑋 admet une distribution Binomiale Négative définie par 𝑟 et 𝑝 au moyen de la notation suivante : 𝑋~𝐵𝑖𝑛𝑁𝑒𝑔 𝑟,𝑝 ou 𝑋~ℬ𝑁 𝑟,𝑝 La v.a. 𝑋 sera aussi appelée variable binomiale négative. Et si 𝑋~ℬ𝑁 𝑟,𝑝 , alors 𝐸 𝑋 =𝑟 𝑞 𝑝 et 𝑉 𝑋 =𝑟 𝑞 𝑝 2 Cas particulier: Quand 𝑟=1, on a la distribution de Geometrique. 𝑝 𝑥 =𝑃 𝑋=𝑥 =𝑝 1−𝑝 𝑥

Distribution Binomiale Négative pour compter des essais pour réussir Soit une expérience aléatoire ℰ. Au cours de l’expérience aléatoire ℰ: soit l'évènement 𝐸 se réalise (succès): 𝑃 𝐸 =𝑝 soit l'évènement particulier 𝐸 ne se réalise pas (échec): 𝑃 𝐸 =1−𝑝=𝑞 On répète cette expérience aléatoire ℰ sous des conditions parfaitement identiques et de manière indépendante, de telle sorte que on peut compter 𝑟 succès, et que la probabilité́ de succès (la probabilité́ que 𝐸 se réalise) reste égale à 𝑝 et la probabilité́ d'échec (la probabilité que 𝐸 ne se réalise pas) reste égale à 𝑞 à chacune des répétitions de ℰ. La v.a. 𝑌 correspondant au nombre de essais (c'est-à-dire au nombre de fois que l'évènement 𝐸 n’a pas été réalisé plus les fois dans lequel l’événement 𝐸 a été réalisé c.a.d 𝑌=𝑋+𝑟) au cours des répétitions de l'expérience ℰ afin d’obtenir les 𝑟 succès. La v.a. 𝑌 possède la D.P.1 suivante : l'ensemble des valeurs possibles de 𝑌 est 𝒱= 1,2,⋯,𝑟 pour tout 𝑦∈𝒱: 𝑝 𝑦 =𝑃 𝑌=𝑦 = 𝑦−1 𝑟−1 𝑝 𝑟 𝑞 𝑦−𝑟 = 𝑥+𝑟−1 𝑟−1 𝑝 𝑟 𝑞 𝑥 .

Nous constatons que cette distribution – appelée Distribution Binomiale Négative – est entièrement spécifiée des que l'on connait 𝑟 (le nombre de succès de l'expérience aléatoire ℰ) et 𝑝 (la probabilité de succès). C'est pourquoi on indique que 𝑌 admet une distribution Binomiale Négative définie par 𝑟 et 𝑝 au moyen de la notation suivante : 𝑌~𝐵𝑖𝑛𝑁𝑒𝑔 𝑟,𝑝 ou 𝑌~ℬ𝑁 𝑟,𝑝 La v.a. 𝑌 sera aussi appelée variable binomiale négative. Et si 𝑌~ℬ𝑁 𝑟,𝑝 , alors 𝐸 𝑋 =𝑟 𝑞 𝑝 et 𝑉 𝑋 =𝑟 𝑞 𝑝 2 Cas particulier: Quand 𝑟=1, on a la distribution de Géométrique. 𝑝 𝑥 =𝑃 𝑋=𝑥 =𝑝 1−𝑝 𝑥

Pour chaque cas particulier: Si 𝑋 compte: 𝑘 succès, après 𝑟 échecs : 𝑓 𝑘;𝑟,𝑝 ≡𝑃 𝑋=𝑘 = 𝑘+𝑟−1 𝑘 𝑝 𝑘 1−𝑝 𝑟 𝑛 essais, étant donnés 𝑟 échecs : 𝑓 𝑛;𝑟,𝑝 ≡𝑃 𝑋=𝑛 = 𝑛−1 𝑟−1 𝑝 𝑛−𝑟 1−𝑝 𝑟 𝑟 échecs, étant donnés 𝑘 succès : 𝑓 𝑟;𝑘,𝑝 ≡𝑃 𝑋=𝑟 = 𝑘+𝑟−1 𝑟 𝑝 𝑘 1−𝑝 𝑟 𝑛 essais, étant donnés 𝑘 succès : 𝑓 𝑛;𝑘,𝑝 ≡𝑃 𝑋=𝑛 = 𝑛−1 𝑘−1 𝑝 𝑘 1−𝑝 𝑛−𝑟 𝑘 succès, étant donnés 𝑛 essais : (C’est la Binomial) 𝑓 𝑘;𝑛,𝑝 ≡𝑃 𝑋=𝑘 = 𝑛 𝑘 𝑝 𝑘 1−𝑝 𝑟

Distribution Hypergéométrique Si l'on prélève individus « au hasard » dans une population (c'est-à-dire de telle façon que tous les individus de cette dernière aient la même probabilité́ d'être choisis), et: si ce prélèvement est fait avec remise (chaque individu sélectionné ne retourne pas, après l’observation, dans la population avant la sélection de l'individu suivant). si l'observation d'un individu consiste à enregistrer le fait qu'il possède (succès) ou non (échec) une certaine propriété. Alors le nombre de succès obtenus à la fin de ces 𝑛 prélèvements est une v.a. distribuée selon une loi Binomiale. Si, au contraire, ces prélèvements se font sans remise (chaque individu observé est écarté par la suite) dans une population de individus, le nombre de succès est alors une v.. admettant une loi Hypergéométrique.

𝑝= 𝑀 𝑁 ⟹𝑀=𝑝𝑁 et ainsi 𝑀−𝑁=𝑁 1−𝑝 Si dans une population de 𝑁 éléments: 𝑀 éléments possèdent une certaine propriété. 𝑁−𝑀 éléments ne possèdent pas cette certaine propriété. On prélevé au hasard sans remise 𝑛 éléments dans la population: 𝑋 nombre d’éléments possédant la propriété parmi les 𝑛 éléments prélevés. 𝒱= 𝑎,𝑎+1,⋯,𝑏 l’ensemble des valeurs possibles de 𝑋. (𝑎= max 0,𝑛− 𝑁−𝑀 max 0,𝑛− 𝑁−𝑀 et 𝑏= min 𝑛,𝑀 ) Pour tout 𝑥∈𝒱: 𝑝 𝑥 =𝑃 𝑋=𝑥 = 𝑀 𝑥 𝑁−𝑀 𝑛−𝑥 𝑁 𝑛 On appelle 𝑝 la proportion d’éléments possédant la propriété. 𝑝= 𝑀 𝑁 ⟹𝑀=𝑝𝑁 et ainsi 𝑀−𝑁=𝑁 1−𝑝

Il s'ensuit que la loi de 𝑋 est entièrement spécifiée dès que l'on connaît 𝑁, 𝑛 et 𝑝. C'est pourquoi on représente la distribution géométrique d'une v.a. 𝑋 par la notation: 𝑋~ℋ 𝑁,𝑛,𝑝 Et 𝑋 est appelée une variable Hypergéométrique. On vérifie par ailleurs que: 𝐸 𝑋 =𝑛𝑝 et 𝑉 𝑋 =𝑛𝑝 1−𝑝 𝑁−𝑛 𝑁−1