Concepts avancés en mathématiques et informatique appliquées

Slides:



Advertisements
Présentations similaires
10/31/02 Leïla Merghem - LIP6 Une approche Multi-Agents pour la Simulation de Réseaux de Télécommunications Leïla Merghem (LIP 6) Dominique Gaïti (LIP.
Advertisements

Apprentissage supervisé à partir de séquences
Champs de Markov en Vision par Ordinateur
Champs de Markov en Vision par Ordinateur
Structures de données et complexité
RECONNAISSANCE DE FORMES
Présentation des programmes de terminale STG Juin 2006.
A L I M E N T A T I O N A G R I C U L T U R E E N V I R O N N E M E N T.
Introduction Pour concrétiser l’enseignement assisté par ordinateur
Conception de Programmes Evolutifs Pré Soutenance de TER Année Encadrants : Cathy Escazut et Michel Gautero Auteurs: Paul-Kenji Cahier Sylvain.
INTRODUCTION Grande quantité de données
(Classes prédéfinies – API Java)
Application de réseaux bayésiens à la détection de fumées polluantes
4 Les Lois discrètes.
5 La Loi de Laplace Gauss ou loi Normale
Notions de variable aléatoire et de probabilité d’un événement
Système formel Nous avons introduit : signes de variables (x, y, z, …), de constantes (0, 1), d’opérations (+, ), de relations (=, ) Axiomes : ce sont.
                                        République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique.
Septième étape : travailler avec des graphes probabilistes
Les lois des probabilités
Objectif général Les compétences à développer : mettre en œuvre une recherche de façon autonome ; mener des raisonnements ; avoir une attitude critique.
Concepts avancés en mathématiques et informatique appliquées
Etude longitudinale d’essais multilocaux: apports du modèle mixte
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
DEA Perception et Traitement de l’Information
Signaux aléatoires.
Froduald Kabanza Département d’informatique Université de Sherbrooke
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
RECONNAISSANCE DE FORMES
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Mécanique Statistique
GPA750 – Gestion de Projets
ÉCHANTILLONNAGE AU FIL DES PROGRAMMES Stage : nouveaux programmes de première Novembre 2011.
Réseaux bayésiens Chap. 14 Sections 1 – 3.
Filtrage de Kalman et aperçu probabiliste
Réseaux bayésiens: Inférence
Architecture d’un système expert
Arbres et graphes.
Présenté par : Attia Hamza Merzouk Abdelkrim 2003/2004
Amélioration de la simulation stochastique
Approches Formelles en Systèmes d'information
Probabilités et Statistiques
IFT 615 – Intelligence artificielle Réseaux bayésiens
7 mai André Revuz 1 Situations fondamentales et curriculums Guy Brousseau.
Froduald Kabanza Département d’informatique Université de Sherbrooke
Sériation et traitement de données archéologiques
Apprentissage « machine »
Initiation à la conception des systèmes d'informations
Olivier Leclair, Université Laval Un algorithme de fouille dans une représentation des données par objets: une application médicale SIMON, Arnaud.
Structures de données avancées : LH (Hachage linéaire) D. E ZEGOUR Institut National d ’Informatique.
TIPE Les dames chinoises
Terminale STG 2006 Statistiques à deux variables
Du discours aux modèles… Une tentative d’articulation
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 13 Introduction à l’intelligence artificielle dans les environnements de jeux 3D –Notions d’agents.
1/16 Chapitre 3: Représentation des systèmes par la notion de variables d’état Contenu du chapitre 3.1. Introduction 3.2. Les variables d’état d’un système.
Présenté par : ABED Djemaa; BAKHOUIA Roqiya.
CHAPITRE 3. Acquisition d’information et révision des croyances
Evaluation des performances des tests diagnostiques en absence de Gold Standard Christophe Combescure Laboratoire de Biostatistique, IURC.
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Jacques Paradis Professeur
Échantillonnage (STT-2000)
La résolution de problèmes
Graphisme par ordinateur
Algorithmes parallèles
Plan 1. Probabilités conditionnelles 2. Indépendance en probabilité
Leçon de Mécanique pré-bac n°10 Thème : Résolution d’un problème de cinématique, aspects méthodologiques Niveau : Première STI2D Le 01/02/12 Gwenaël.
PROJET DE SESSION PRÉSENTÉ PAR : Rosemarie McHugh DANS LE CADRE DU COURS : SCG Réalisation d’applications en SIG 16 avril 2007.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Concepts avancés en mathématiques et informatique appliquées
INTELLIGENCE ARTIFICIELLE
Transcription de la présentation:

Concepts avancés en mathématiques et informatique appliquées MAP-6014

Appproches statistiques de la classification (Réseaux Bayesien) Introduction Probabilité jointe Marginale/Probabilité conditionnelle Chain rule Algorithme de création d’un BN Autre exemple de BN

Introduction (Réseau Bayesien) Représentation structurée, graphique de relations probabilistes entre variables aléatoires Représentation explicite des dépendences et indépendances conditionnelles Dépendances représentées par des arcs dans un graphe Représentation efficiente des probabilités jointes Permet de répondre à diverses requêtes P (lung cancer=yes | smoking=no, positive X-ray=yes ) = ?

Introduction (Réseau Bayesien)

Introduction (Réseau Bayesien) Un domaine d’application peut être modélisé par une de variables aléatoires X1, X2, X3, …., Xn La connaissance contenue dans ce domaine d’application est représentée par la probabilité jointe P(X1, X2, X3, …., Xn) Exemple classique: Alarm (Pearl 1988) À LA, les vols et tremblements de terre sont communs, et déclenchent une alarme, dans ces cas Mary et John, les voisins téléphonent pour vérifier si quelqu’un est à la maison

Probabilité jointe Exemple classique: Alarm (Pearl 1988) Variables: B (vols), E (tremblement de terre), A (alarme), J (John appel), M (Mary appel) La probabilité jointe P(B, E, A, J, M) permet de modéliser l’information sous forme probabiliste

Probabilité jointe Exemple classique: Alarm (Pearl 1988) P(B, E, A, J, M)

Marginale/probabilité conditionnelle Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? 0.000115/(0.000115 + 0.00015) = 0.434

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Sachant que la probabilité jointe permet d’extraire les diverses relations entre les variables (informations), il devient alors possible de faire de l’inférence: Inférence diagnostic: inférer les causes à partir d’effets (ex: médecine, déduire une maladie à partir de symptômes), P(B=y|M=Y) Inférence prédictive: inférer les effets à partir des causes, P(M=y|B=y)

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Cependant, la probabilité jointe P(X1, X2, X3, …., Xn) requiert: 2n données pour spécifier les probabilités Donc, difficile d’acquérir ces probabilités Stockage exponentiel Mais en exploitant l’indépendance conditionnelle et la règle de probabilité en chaîne (chain rule) il devient possible de réduire le nombres de paramètres requis pour évaluer les probabilités jointes

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Chain rule

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Sachant que: Alors: Cette dernière opération comporte moins de termes

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) CPT (conditional probability tables)

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Réseau bayesien correspondant

Introduction (Réseau Bayesien) Algorithme de construction d’un réseau bayesien Choisir un ensemble de variables descriptives. Choisir un ordre pour les variables. À partir d’un réseau vide ajouter des variables 1 par 1 selon l’ordonnancement. Pour ajouter la i ème variable Xi , Déterminer pa(Xi ) dans (X11, . . . ,Xi−1) Tel que P(Xi |X1, . . . , Xi−1) = P(Xi |pa(Xi )) Relier un arc entre les variables pa(Xi ) à Xi .

Introduction (Réseau Bayesien) Ordre 1 (B, E, A, M, J)

Introduction (Réseau Bayesien) Ordre 2 (M, J, A, B, E) ?

Introduction (Réseau Bayesien) Ordre 2 (M, J, E, B, A) ?

Introduction (Réseau Bayesien) Exemple de réseau Bayesien pour le monitorage de la fatigue au volant

Introduction (Réseau Bayesien) Exemple de réseau Bayesien pour le monitorage des facultés affaiblies

Introduction (Réseau Bayesien) Exemple de réseau Bayesien: acquisition des évidences

Introduction (Réseau Bayesien) Exemple de réseau Bayesien: acquisition des évidences

Introduction (Réseau Bayesien) Exemple de réseau Bayesien: acquisition des évidences

Introduction (Réseau Bayesien) Exemple de réseau Bayesien: acquisition des évidences