Probabilités et variables aléatoires

Slides:



Advertisements
Présentations similaires
Probabilités et statistiques au lycée
Advertisements

GESTION DE PORTEFEUILLE 3 Catherine Bruneau
GESTION DE PORTEFEUILLE 3bis Catherine Bruneau RISQUE & PROBABILITE.
STATISTIQUE INFERENTIELLE L ’ESTIMATION
Inférence statistique
Inférence statistique
Comparaison d'une distribution observée à une distribution théorique
Comparaison de plusieurs moyennes observées
4 Les Lois discrètes.
5 La Loi de Laplace Gauss ou loi Normale
Moyenne, écart type et incertitude de mesure.
Les tests d’hypothèses
Probabilités et statistiques en première S, ES, L
Statistiques et probabilités en première
DESS « Génie logiciel, économie, droit et normes »
FIABILITE MAINTENABILITE DISPONIBILITE
variable aléatoire Discrète
Programmes du cycle terminal
COURS 5 Les tableaux croisés, le chi-carré et la corrélation
Autres LOIS de PROBABILITES
Les principaux résumés de la statistique
Applications des statistiques
DEA Perception et Traitement de l’Information
Comprendre la variation dans les données: Notions de base
de la Sixième à la Première et la Terminale
STATISTIQUES – PROBABILITÉS
Chapitre 6 Lois de probabilité.
Université dOttawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :47 1 Concepts fondamentaux: statistiques et distributions.
Dépannage du 12 mars 2007.
Conception et analyse des algorithmes Les algorithmes probabilistes
Algorithmes probabilistes
Distribution d’échantillonnage
La régression multiple
Let’s Train ! Cet exercice est un questionnaire à choix multiples constitué de plusieurs questions indépendantes . Pour chacune d’elles, une seule des.
Régression linéaire (STT-2400)
Demande stochastique stationnaire
Varia Lectures obligatoires dans manuel du cours: Chapitre 5
De la troisième à la seconde dans le champ du programme probabilités et statistiques Année scolaire
Processus stochastiques
Processus de Poisson UQAM, Actuariat 3.
LES LOIS BINOMIALES.
Méthodes de Biostatistique
Méthodes de Biostatistique
Programmation dynamique
Scénario Quatre hommes entrent en collision un dans l'autre dans un ascenseur plein de personnes. En conséquence ils laissent tomber leurs téléphones cellulaires.
ESTIMATION 1. Principe 2. Estimateur 3. Distribution d’échantillonnage
Probabilités et Statistiques
Micro-intro aux stats.
Probas-Stats 1A novembre 10 1 Probabilités et Statistiques Année 2010/2011
TD4 : « Lois usuelles de statistiques »
STATISTIQUES – PROBABILITÉS
Probabilités (suite).
Chapitre 3: Variables aléatoires réelles continues
LOIS DE PROBABILITE Variables aléatoires Lois discrètes Lois continues
Probabilités et Statistiques
Principales distributions théoriques
- 6 - Concepts probabilistes et distributions de probabilité
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES
L’erreur standard et les principes fondamentaux du test de t
Chapitre 4 Variables aléatoires discrètes
Rappel de statistiques

ECHANTILLONAGE ET ESTIMATION
Comparaison de plusieurs moyennes observées
© Fujitsu Canada Distributions de données discrètes et continues Formation Black Belt Lean Six Sigma.
Introduction aux statistiques Intervalles de confiance
Chapitre 3 Lois de probabilité 1. Lois discrètes 2. Loi de Bernoulli (ou loi alternative simple) variable de Bernoulli On appelle variable de Bernoulli.
UED SIM – Département OLCI Année Arts & Métiers ParisTech CER ANGERS Probabilités et statistiques Cours n° 2.
Bienvenue au cours MAT-350 Probabilités et statistiques.
 1____Probabilité  2______variables aléatoires discrètes et continues  3______loi de probabilités d’une v a  4_______les moyens et les moyens centraux.
Transcription de la présentation:

Probabilités et variables aléatoires Adapté de Yannis Korilis, Christian St-Jean, Dave DeBarr, Bob Carpenter, Jennifer Chu-Carroll et plusieurs autres

Expérience aléatoire et probabilité Suite d’évènements dont les variables varient dans des intervalles de valeurs connus, sans que les valeurs précises le soient avec une certitude absolue La fréquence d’occurrence de chaque valeur est utilisée comme mesure relative de sa certitude, ou probabilité d’occurrence

Approche évènementielle Expérience aléatoire : Suite d’évènements pris dans un espace  sur lequel est définie une probabilité P. Un événement est une partie de  notée A. Chaque événement possède une probabilité P(A) telle que, dans l’espace probabilisé (, A, P), on a : P()=1 (il est certain qu’un évènement se produise, sans savoir lequel) P(A) + P(Ac)=1 (Si un évènement ne se produit pas, un des autres se produira) La loi de probabilité triviale est : Cas discret Cas continu

Approche par variable aléatoire Variable numérique dont les valeurs dépendent des résultats d’une expérience aléatoire Représente une projection de (, A, P) dans un espace numérique Permet le calcul des probabilités par des méthodes de l’analyse mathématique au lieu de raisonner sur des ensembles Variable aléatoire discrète : ses valeurs sont dénombrables Espérance : la valeur moyenne Variance : l’écart quadratique moyen par rapport à la valeur moyenne

Variable aléatoire continue Ses valeurs sont des nombres réels Utilise une fonction de densité de probabilité : positive, intégrable , , Fonction de probabilité cumulative : Espérance : Variance :

Variables aléatoires indépendantes et conditionnelles Probabilité conditionnelle : Évènements indépendants : Variables aléatoires indépendantes : Théorème de Bayes :

Lois de probabilité discrètes (Comme quoi, les hasards ne sont pas tous pareils !) Loi uniforme X={1,2,…,n} : Loi de bernoulli X={0,1} :

Loi binomiale Loi géométrique L’évènement de probabilité p apparaît k fois en n essais => n épreuves de bernoulli, avec les combinaisons de k dans n X={0,1,2, …, n) : Loi géométrique   L’évènement de probabilité p apparaît au kième essais => k épreuves de bernoulli, avec X=1 à la kième et 0 avant :   Loi sans mémoire : La probabilité de l’événement au kième essai ne dépend pas de l’historique des évènements Propriété ignorée par les joueurs !

Loi de Poisson Le nombre moyen d’occurrence d’un événement X dans un temps T est k X={0,1,…} :  = nombre moyen d’événement par unité de temps. Relation avec la loi binomiale : Si p<0.1 et n>50 : B(n,p)P(np)

Lois de probabilité continues Loi uniforme Loi exponentielle Utilisée en fiabilité pour représenter une espérance de vie E(x)= 1/ est souvent appelé MTBF (« mean time between failures ») et  est le taux de défaillance P(X > x)=probabilité d’attendre plus de x avant l’apparition d’un phénomène lorsque 1/ est le temps moyen d’attente. Loi sans mémoire : le passé ne permet pas de prédire l’avenir.

Loi Gamma Généralisation de la loi exponentielle utilisée dans les files d’attentes. P(X > x) = probabilité d’attendre plus de x minutes avant la kième apparition du phénomène étudié, avec 1/ comme temps moyen d’attente entre deux apparitions du phénomène.

Loi de Gauss (« normale ») Loi fondamentale en statistique. Très souvent utilisée en modélisation. Loi limite de caractéristiques issues d’un échantillon de grande taille. On a les convergences suivantes (souvent abusées dans les sondages !): B(n;p)N(np;np(1-p)) (np et n(1-p) supérieurs à 5) P()N(; ) (avec >18)

Loi du Chi 2 (Khi-deux de Pearson) Dite « chi2 à k degrés de liberté » Loi de Student Dite « Student à k degrés de liberté » Loi de Fisher-Snédécor Dite « Fisher à k, l degrés de liberté »

Exemple 1 Un système de prise de décision binaire comprend trois modules indépendants et pend une décision positive s’il y unanimité chez les trois modules. Sachant que la probabilité d’une décision négative par un module est 0.02, 0.05 et 0.10, respectivement, quelle est la probabilité que le système prenne une décision positive? P(A) =P(décision négative par module A) = 0.02 P(B) = P(décision négative par module B) = 0.05 P(C) = P(décision négative par module C) = 0.10

Exemple 2 Une machine utilise quatre dispositifs D1, D2, D3, D4 dont la défaillance peut intervenir de manière indépendante. La machine tombe en panne si D1 est défaillant ou que deux de D2, D3, D4 les sont. Si Ai dénote le fait que Di fonctionne sans défaillance pendant un intervalle T, quelle est la probabilité de fonctionnement correct de la machine durant l’intervalle si P(A1)=0.80, P(A2)=0.85, P(A3)=0.90 P(A4)=0.90 ?

Exemple 3 Un système S se présente de manière aléatoire sous deux états, 0 et 1, avec P(S=0)= 0.4 et P(S=1)=0.6. Une station T1 fournit des informations potentiellement erronées sur l’état de S. La probabilité que T1 soit juste pour l’état 0 est 0.98 ; la probabilité qu’elle le soit pour l’état 1 est 0.95. A un instant donné, T1 reporte S dans l’état 0. Quelle est la probabilité que S soit vraiment dans l’état 0 ? Posons E1 : {S est dans l’état 0}, O1 : {S est observé dans l’état 0 par T1 } P(E1 )=0.4 P(O1 | E1 )=0.98 P(O1 | cE1 )=0.05

Exemple 4 Un système S se présente de manière aléatoire sous deux états, 0 et 1, avec P(S=0)= 0.4 et P(S=1)=0.6. Deux stations T1 et T2 fournissent des informations sur l’état de S. La probabilité d’erreur de T1 est 0.02 et celle de T2 est 0.06 A un instant donné, T1 donne S dans l’état 0 et T2 donne S dans l’état 1. Quelle est la probabilité que S soit dans l’état 0 ? Posons E0 {S est dans l’état 0} et E1 {S est dans l’état 1} O:{S est observé dans l’état 0 par T1 et dans l’état 1 par T2 } P(E0 )=0.4 P(E1 )=0.6 P(O | E0 )=0.98*0.06 (= prob. que T1 soit vraie et T2 soit fausse sachant que S est dans l’état 0) P(O | E1 )=0.02*0.94

Exemple 5 Une machine tombe en panne selon la loi exponentielle avec un facteur =0.5/heure. Quelle est la probabilité que la machine tombe en panne entre la première et deuxième heure après le démarrage. La durée de vie d'un composant d'un système est supposée suivre une loi exponentielle de paramètre . Un grand nombre de ces composants sont testés et on a observé que 5% ne durent pas plus de 100 heures. Estimer la probabilité qu'un composant pris au hasard dure plus de 200 heures, ou T est la durée de la vie en heures La probabilité de survie est Pour T > 200,

Exemple 6 Le taux global de défaillance d’un processus est la somme des taux de chaque composant et ceux-ci suivent une loi de mortalité exponentielle. Les taux élémentaires sont donnés par des documents fournis par le designer. Pour un taux de défaillance  = 12 10-6 h-1 et pour un fonctionnement continu pendant 208 jours par an, donnez la probabilité théorique que le processus fonctionne encore au bout de ces 208 jours. t = 24 x 208 » 5000 heures la probabilité théorique que le processus est fonctionnel encore est alors de R(5000) = e-0.000012.x5000 = 0,9418. Ceci signifie que la probabilité d'avoir une défaillance pendant la durée de fonctionnement de 5000 heures est de f = 1 - 0,9418 = 0,0582 soit 5,8 %.