Graphisme par ordinateur SIF1032
Appproches statistiques de la classification (Réseaux Bayesien) Introduction Probabilité jointe Marginale/Probabilité conditionnelle Chain rule
Introduction (Réseau Bayesien) Représentation structurée, graphique de relations probabilistes entre variables aléatoires Représentation explicite des dépendences et indépendances conditionnelles Dépendances représentées par des arcs dans un graphe Représentation efficiente des probabilités jointes Permet de répondre à diverses requêtes P (lung cancer=yes | smoking=no, positive X-ray=yes ) = ?
Introduction (Réseau Bayesien)
Introduction (Réseau Bayesien) Un domaine d’application peut être modélisé par une de variables aléatoires X1, X2, X3, …., Xn La connaissance contenue dans ce domaine d’application est représentée par la probabilité jointe P(X1, X2, X3, …., Xn) Exemple classique: Alarm (Pearl 1988) À LA, les vols et tremblements de terre sont communs, et déclenchent une alarme, dans ces cas Mary et John, les voisins téléphonent pour vérifier si quelqu’un est à la maison
Probabilité jointe Exemple classique: Alarm (Pearl 1988) Variables: B (vols), E (tremblement de terre), A (alarme), J (John appel), M (Mary appel) La probabilité jointe P(B, E, A, J, M) permet de modéliser l’information sous forme probabiliste
Probabilité jointe Exemple classique: Alarm (Pearl 1988) P(B, E, A, J, M)
Marginale/probabilité conditionnelle Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle
Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle
Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? 0.000115/(0.000115 + 0.00015) = 0.434
Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Sachant que la probabilité jointe permet d’extraire les diverses relations entre les variables (informations), il devient alors possible de faire de l’inférence: Inférence diagnostic: inférer les causes à partir d’effets (ex: médecine, déduire une maladie à partir de symptômes), P(B=y|M=Y) Inférence prédictive: inférer les effets à partir des causes, P(M=y|B=y)
Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Cependant, la probabilité jointe P(X1, X2, X3, …., Xn) requiert: 2n données pour spécifier les probabilités Donc, difficile d’acquérir ces probabilités Stockage exponentiel Mais en exploitant l’indépendance conditionnelle et la règle de probabilité en chaîne (chain rule) il devient possible de réduire le nombres de paramètres requis pour évaluer les probabilités jointes
Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Chain rule
Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Sachant que: Alors: Cette dernière opération comporte moins de termes
Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) CPT (conditional probability tables)
Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Réseau bayesien correspondant