LOG770 Annexe A Éléments de probabilité

Slides:



Advertisements
Présentations similaires
GESTION DE PORTEFEUILLE 3 Catherine Bruneau
Advertisements

GESTION DE PORTEFEUILLE 3bis Catherine Bruneau RISQUE & PROBABILITE.
Etude commerciale de Probabilités dans un système de file d’attente ABBAS Thomas CHUNG Fabien KLOTZ Raphaël.
Du chapitre 1 au chapitre 2 1. Les graphiques : introduction (p.19)  Pour prendre possession des données o des chiffres dans un tableau, c’est bien o.
Nouveau programme de 3ème Probabilités Document de travail – Académie de Rouen
Calcul d'erreur e ● Fluctuations dans les mesures ● Erreur systématique et erreur aléatoire.
Chapitre 5. Modèles probabilistes continus Variable aléatoire continue et loi de probabilité continue Loi uniforme Loi exponentielle Loi normale Loi normale.
Calcul de probabilités
PROBABILITÉS.
Application des lois de probabilité -Variable aléatoire discrète-
Techniques quantitatives Cours 5
La ProbabilitÉ.
Un Algorithme , c'est Quoi ?
Loi Normale (Laplace-Gauss)
1 - Construction d'un abaque Exemple
Premier objectif : définir un acide et une base :
Probabilités.
Chapitre 13 : Echantillonnage
Simuler des probabilités
Hasard et Probabilités, P. Thompson
Plans d’expériences: Plans factoriels
Les Plans d’expériences: Plans Factoriels
SYNTHESE.
Exercice 1 : On donne le tableau de valeurs suivant :
Introduction aux Statistiques Variables aléatoires
Approximation de Pi par la méthode de Monte Carlo
Eléments de la Théorie des Probabilités
INTELLIGENCE ARTIFICIELLE
4.2 Estimation d’une moyenne
3.5 Lois continues 1 cours 16.
Troisième Chapitre 9: Les Probabilités
Introduction aux statistiques Intervalles de confiance
1.2 dénombrement cours 2.
Lois de probabilités Intervalle de fluctuation
Cours N°10: Algorithmiques Tableaux - Matrices
OUTIL DE LA MAINTENANCE CONDITIONNELLE
Pourquoi étudier la statistique ?
Chapitre 7: Groupage.
POL1803: Analyse des techniques quantitatives
LOG770 Systèmes Intelligents
Techniques du Data Mining
LES PROBABILITÉS Par : R . BOULAHBAL 2016 Free Powerpoint Templates.
 1____Probabilité  2______variables aléatoires discrètes et continues  3______loi de probabilités d’une v a  4_______les moyens et les moyens centraux.
Chapitre 3 : Caractéristiques de tendance centrale
SDRP & MA Problème du rendez vous : un algorithme probabiliste et une analyse probabiliste 09/11/2018.
Eléments de la Théorie des Probabilités
Les méthodes non paramétriques
CHAPTER 2: Apprentissage supervisé
CHAPTER 2: Apprentissage supervisé
A. Zemmari SDRP & MA Modèles et Approches Formels pour les Systèmes Distribués -Algorithmes distribués probabilistes.
CHAPITRE 5: Méthodes multivariables
CHAPTER 10: Discrimination Linéaire
Statistique descriptive Bivariée
4°) Intervalle de fluctuation :
Lois de Probabilité Discrètes
Lois de Probabilité Discrètes
Question flash TSTI2D.
Second degré Dérivation Suites Statistiques Probabilités
Présentation 4 : Sondage stratifié
Présentation 9 : Calcul de précision des estimateurs complexes
Chapitre 8 : Organisation et gestion de données
Reconnaissance de formes: lettres/chiffres
SPECIALITE MATHEMATIQUES.
Analyse statistique des données expérimentales
Présentation 7 : Sondage en grappe
Présentation 6 : Sondage à plusieurs degrés
Résumé: PROBABILITÉS GÉOMÉTRIQUES
Le D.R.P. - Quelques jours de fonctionnement
Statistiques et probabilités
Présentation des nouveaux programmes de mathématiques de première des séries technologiques Jessica Parsis.
Transcription de la présentation:

LOG770 Annexe A Éléments de probabilité Chargé de cours : Yazid Attabi Local: CRIM Téléphone: (514) 840 1235 #2299 Courriel: yazid.attabi@crim.ca Responsable de cours : Pierre Dumouchel, ing., Ph.D., Local: A-3498 Téléphone: (514) 396 8996 Courriel: Pierre.Dumouchel@etsmtl.ca

Définitions Expérience aléatoire: Espace d’échantillons (S): expérience dont la sortie ne peut être prédite avec certitude à l’avance. Espace d’échantillons (S): L’ensemble de toutes les sorties possibles. S discret: s’il contient un ensemble fini de sorties S continu: s’il contient un ensemble infini de sorties Événement (E): Sous-ensemble de S Probabilité: Fréquence relative Degré de confiance, de croyance Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Axiomes de probabilité Soit , i=1,…,n des événements mutuellement exclusifs c.à.d. alors Soit E et F, deux événements non exclusifs c.à.d. qu’il existe un chevauchement entre ces deux événements alors Soit S, l’espace des échantillons alors Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Probabilité conditionnelle Formule de Bayes Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Probabilité conditionnelle Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Probabilité conditionnelle Si E et F sont indépendants alors Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Variables aléatoires Une variable aléatoire ( X ) est une fonction qui assigne une valeur ( a ) à chaque sortie d’un événement aléatoire (E ) dans une espace d’échantillons ( S ). Une fonction de distribution de probabilité F(˙) d’une variable aléatoire X pour tout nombre réel a est défini comme suit: Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Variables aléatoires Si X est une variable aléatoire discrète alors Si X est une variable aléatoire continue alors Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Règle de Bayes Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Détecteur d’émotion à partir de la voix A: données acoustiques Sortie (E)  ou ? Calculer Pr(|A) et Pr( |A) et choisir la plus grande probabilité. En langage mathématique: émotion = argmax Pr( e | A) e=, Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Détecteur d’émotion  ou ? A: données acoustiques Sortie (E)  ou ? Il faut donc modéliser Pr( A | e ) et Pr( e ) Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Comment modéliser Pr(A | e) et Pr(e) Pr( A | e ) : vraisemblance de A étant donné une émotion en particulier ( ou ) Pr( A |  ) ou Pr( A |  ) Pourrait-être estimé par des fonctions de densité de probabilité (courbe normale) Pr( e ) : probabilité apriori de l’émotion i.e. Pr(  ) ou Pr(  ) Pourrait-être estimé par des fréquences relatives Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Espérance, E[X] Espérance ou valeur estimée ou moyenne d’une variable aléatoire X est la valeur moyenne de X sur un grand nombre d’expériences: Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Variance, déviation standard et covariance Les variance, déviation standard et covariance sont des mesures de la variation de la variable aléatoire X autour de la moyenne (espérance) i.e. Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Variables aléatoires spéciales Distribution de Bernoulli Ex: pile ou face Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Variables aléatoires spéciales Distribution uniforme Ex: X est distribué uniformément sur l’intervalle [a,b] Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)

Variables aléatoires spéciales Distribution normale (ou gaussienne) 68,27% des valeurs se trouvent entre 95,45% des valeurs se trouvent entre 99,73% des valeurs se trouvent entre Lecture Notes for E Alpaydın 2004 Introduction to Machine Learning © The MIT Press (V1.1)