IFT 615 – Intelligence artificielle Raisonnement probabiliste

Slides:



Advertisements
Présentations similaires
GESTION DE PORTEFEUILLE 3bis Catherine Bruneau RISQUE & PROBABILITE.
Advertisements

STATISTIQUE INFERENTIELLE L ’ESTIMATION
Algorithmes et structures de données avancés
Calcul géométrique avec des données incertaines
RECONNAISSANCE DE FORMES
Test statistique : principe
Les tests d’hypothèses (I)
ANALYSE CONJOINTE 29/06/07- Analyse conjointe.
Inférence statistique
Situation du problème :
Les TESTS STATISTIQUES
Tests de comparaison de pourcentages
Les K plus proches voisins
Nombre de sujets nécessaires en recherche clinique
Les TESTS STATISTIQUES
Fabio Cozman, 30/12/1999 Présenté par Antoine Penciolelli 17/04/2001 Introduction à la théorie des ensembles de distributions.
Échantillonnage-Estimation
Notions de variable aléatoire et de probabilité d’un événement
Système formel Nous avons introduit : signes de variables (x, y, z, …), de constantes (0, 1), d’opérations (+, ), de relations (=, ) Axiomes : ce sont.
Les tests d’hypothèses
Systèmes Experts implémentation en Prolog
Estimation de la survie comparaison des courbes de survie FRT C3.
variable aléatoire Discrète
                                        République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique.
Apprendre à partir des observations
Exemple Dans une ville, 55% des travailleurs ont un revenu supérieur à $. Si un individu de cette ville possède un revenu supérieur à $, la.
Fusion de données : Vision probabiliste de la fusion
DURIBREUX, Michèle & COCQUEBERT & HOURIEZ, Bernard,
Sémantique axiomatique
1.2 COMPOSANTES DES VECTEURS
L’inférence statistique
Incertitude, risque et apprentissage
Groupe 1: Classes de même intervalle
Froduald Kabanza Département d’informatique Université de Sherbrooke
Problème Autre formulation :
IFT 615 Intelligence Artificielle
IFT 616 Intelligence Artificielle
Rappels de logique des prédicats du 1er ordre
CSI3525: Concepts des Languages de Programmation
CSI 4506: Introduction à l’intelligence artificielle
Les modèles linéaires (Generalized Linear Models, GLM)
Corrélation Principe fondamental d’une analyse de corrélation
Chapitre 4 La probabilité
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Partie II Sémantique.
IFT 615 Intelligence Artificielle
Réseaux bayésiens Chap. 14 Sections 1 – 3.
Filtrage de Kalman et aperçu probabiliste
Programmation linéaire en nombres entiers : les méthodes de troncature
Réseaux bayésiens: Inférence
GOL503 Spécificités sectorielles
Rappels de statistiques descriptives
Théorème de la limite centrale l’inférence statistique
Programmation linéaire en nombres entiers
IFT 615 – Intelligence artificielle Réseaux bayésiens
Froduald Kabanza Département d’informatique Université de Sherbrooke
D.E ZEGOUR Ecole Supérieure d’Informatique. Problèmes de décision Concepts de base Expressions régulières Notation particulière pour exprimer certaines.
MATHÉMATIQUES DISCRÈTES Chapitre 4 (sec 4-5)
1/16 Chapitre 3: Représentation des systèmes par la notion de variables d’état Contenu du chapitre 3.1. Introduction 3.2. Les variables d’état d’un système.
CHAPITRE 3. Acquisition d’information et révision des croyances
Rappel de statistiques
Échantillonnage (STT-2000)
LOGIQUE ET PROGRAMMATION LOGIQUE
Graphisme par ordinateur
Concepts avancés en mathématiques et informatique appliquées
Introduction à l’Informatique chap 3 Licence SPI Mme Delmotte.
Chap. 3 Récursion et induction. Les définitions par récurrence consistent à construire des objets finis, à partir d'autres, selon certaines règles. Les.
Scénario Quatre hipsters entrent en collision un dans l'autre dans un ascenseur plein de personnes. En conséquence ils laissent tomber leurs téléphones.
C9-1 Modèles décisionnels en gestion Introduction Les modèles linéaires La résolution des modèles linéaires continus La programmation linéaire en nombres.
Chapitre 5 Interprétation des données d’enquête 1.
Transcription de la présentation:

IFT 615 – Intelligence artificielle Raisonnement probabiliste Éric Beaudry Département d’informatique Université de Sherbrooke

Raisonnement probabiliste Sujets couverts Introduction au raisonnement probabiliste Raisonnement avec incertitude Théorie des probabilités: syntaxe et sémantique Inférences simples Indépendance entre des variables aléatoires Règle de Bayes Illustration avec le monde des wumpus IFT615 Raisonnement probabiliste

Rappel: Utility-based agents Les capteurs peuvent être bruités… Rappel: Utility-based agents État incertain. Les actions peuvent avoir des effets incertains ! Rappel du model d’agent. Ici, le modèle avec utilité est repris. Il peut y avoir de l’incertitude à plusieurs endroits… ici, trois exemples sont donnés. IFT615 Raisonnement probabiliste

Raisonnement probabiliste Incertitude Soit At l’action d’aller à l’aéroport t minutes avant le départ de l’avion. At me permettra-t-il d’arriver à temps? Problèmes: Observabilité partielle (conditions routières, etc.) Senseurs bruités (annonces du trafic, etc.) Incertitude dans l’effet des actions (crevaisons, pannes, etc.) Immense complexité pour modéliser les actions et le trafic. Un raisonnement purement logique Risque de tirer des conclusions erronées: « A25 me permettra d’arriver à temps », ou Risque de tirer des conclusions peu exploitable du point de vue « prise de décision »: « A25 me permettra d’arriver à temps, s’il ne pleut pas, s’il n’y a pas d’accident, si mes pneus ne crèvent pas, etc. » « A1440 me permettra raisonnable d’arriver à temps, mais je devrai passer une nuit à l’aéroport. » Page 463- Exemple de carie dentaire Décision rationnelle Page 464 Degrée de croyance (de certitude) vs degrée de vérité (logique floue): En probabilité tout comme en logique propositionnelle, les propositions sont soient vraies ou fausses. Par contre, nous avons en probabilité un degré de croyance: en logique c’est binaire. Donner exemple sur cavité, et contraster avec les propositions flues comme grand, petit, ...et leur pendant probabiliste et propositionnelles. Page 465 probabilité à priori (inconditionnelle) vs probabilité à postériori (conditionnelle), évidence (c-à-d., expérience). incertitude et décisions rationnelles: préférences, théorie de l’utilité (utility theory); théorie de la décision = théorie des probabilités + théorie de l’utilité. Page 466 Structure simple d’un agent fonctionnant avec la théorie de la décision: intéressant: on peut lui donner un plan, un MDP, etc. L’utiliser le long du cours et l’introduire avec le wumpus world. Maximum expected utility et le principe correspondant. Page 467: Le langage des probabilités: il nous faut un langage pour représenter les connaissances de l’agent et faire un raisonnement avec ces représentations. Forcémement, nous voulons un langage capable d’exprimer des degrés de certitudes/croyances. Chaque variable aléatoire a un domaine (de valeurs que la variable peut prendre). Variables aléatoires booléennes, discretes, continues (e.g., vitesse du robot). On focalise ici sur les cas discrets. L’élément de base du langage est la variable aléatoire. Une variable aléatoire est une variable décrivant une partie des connaissances incertaince. Une proposition est une assertion de ce qui est vraie, c’est à dire, une assertion sur la valeur d’une variable. Ce peut être une propriété ou un fait. Donner des exemples dans les domaines médical (cavité), wumpus, etc.). Exemple: Carie=true est une proposition. Quand c’est binaire nous allons la noter Carie. Et carie=false`: not(carie). On peut combiner des propisitions élementaires pour en faire d’autres par les connecteurs logiques standard: exemple page 468. Note: dans ula logique du 1er ordre, une telle combinaison n’est plus une proposition: c’est une formule! Mais les formules sont plus générales que ce qui est permis ici: quantification, etc. Page 468: Un événement atomique est une spécification complète d’un ’état possible. En d’autres mots, un événnement est une assignation de valeur pour chaque variable aléatoire décrivant un aspect de l’environnement. Voir les propriétés. Page 468 Probabilité à priori Page 469 Distribution de probabilité à priori= spécification des probabilités pour toutes les valeurs possibles d’une variable : c’est un vecteur. Distribution de probabailités jointes: spécification des probabilités pour toutes les valeurs possibles d’un ensemble de variables: c,est une matrice (note si l’ensemble n’invclut pas toutes les variables, c’est un état partiellement décrit). Distribution conplète de probabailités jointes: inclut toutes les variables, c-à-d., tous les états complets du système (c-à-d., tous les événements). Page 470 Probabilité conditionnelle Equation des probabilités conditionelle + règle du produit. Page 471: - Axiomes de la probabilité : dans les acétates de AMAI, ça vient avant. Le maintenir cohéremment avec le livre (ici), c’est mieux. - ! Probabilité condition n’est pas conséquence logique + probabilité! IFT615 Raisonnement probabiliste

Méthodes pour le raisonnement avec incertitude Logique non-monotone (nonmonotonic/default logic): Supposer que ma voiture n’aura pas de crevaison Supposer que A25 suffit à moins d’information/évidence contradictoire Enjeux: Quelles hypothèses sont raisonnables? Comment gérer les contradictions? Règles de production avec facteurs de certitude: A25 → 0.4 arriver à temps Arroseur → 0.99 PelouseMouillée PelouseMouillé → 0.7 Pluie Enjeux: Problèmes avec les combinaisons de règles pour faire des déduction. Par exemple: Arroseur causes Pluie !? Probabilités Modélise la croyance/certitude des agents: Les connaissances de l’agent peuvent au mieux donner un degré de croyance dans les faits. Étant donné l’information/évidence disponible jusqu’ici, A25 me permettra d’arriver avec une probabilité de 0.4 IFT615 Raisonnement probabiliste

Raisonnement probabiliste Probabilités Les assertions probabilistes facilitent la modélisation: Des faits et de règles complexes: comparée aux règles de production, l’approche est moins sensible à la non possibilité d’énumérer toutes les exceptions, antécédents ou conséquences de règles. De l’ignorance: L’approche est moins sensible à l’omission/oubli des faits, de prémisses ou des conditions initiales à un raisonnement. Probabilité subjective/bayésienne: Les probabilités expriment le degré de croyance d’un agent dans des propositions/faits. Par exemple: P(A25 | aucun accident rapporté) = 0.06 Les probabilités ne sont pas des assertions sur ce qui est vrai. N’expriment pas forcément des tendances/fréquences d’une situation; mais pourraient être apprises automatiquement à partir d’expériences. Les probabilités des propositions changent avec l’acquisition de nouvelles informations. Par exemple: P(A25 | aucun accident rapporté, 5h du matin) = 0.15 IFT615 Raisonnement probabiliste

Prise de décisions avec incertitude Supposons que je crois ceci: P(A25 me permet d’arriver à temps | …) = 0.04 P(A90 me permet d’arriver à temps | …) = 0.70 P(A120 me permet d’arriver à temps | …) = 0.95 P(A240 me permet d’arriver à temps | …) = 0.999 P(A1440 me permet d’arriver à temps | …) = 0.9999 Quelle action devrai-je choisir? Cela dépend de mes préférences: manquer l’avion vs. trop d’attente. La théorie de l’utilité est utilisée pour modéliser et inférer sur les préférences. Une préférence exprime le degré d’utilité d’une action/situation. Théorie de la décision = théorie des probabilités + théorie de l’utilité Page 466: Maximum expected utility et le principe correspondant. Structure simple d’un agent fonctionnant avec la théorie de la décision: intéressant: on peut lui donner un plan, un MDP, etc. S’applique bien au monde des wumpus. IFT615 Raisonnement probabiliste

Probabilités: notions de base Exprime le degré de croyance. Commencer avec un ensemble  - espace d’échantillonnage Exemple: 6 possibilités si on roule un dé.   est un échantillon (un état ou un événement atomique). L’espace/modèle de probabilités est l’espace d’échantillonnage avec une distribution de probabilité P() pour chaque élément  . 0  P()  1  P() = 1 Par exemple: P(1)=P(2)=P(3)=P(4)=P(5)=P(6)=1/6 Un événement est un sous-ensemble de . Probabilité d’un événement (c.à-d., d’un élément de ) P(A)={A} P() Exemple: P(dé < 4) = P(w=1 w=2 w=3) = 1/6+1/6+1/6=1/2 Il nous faut un langage pour représenter les connaissances de l’agent et faire un raisonnement avec ces représentations. Forcément, nous voulons un langage capable d’exprimer des degrés de certitudes/croyances. Ici nous choisissons le langage des probabilités. IFT615 Raisonnement probabiliste

Raisonnement probabiliste Variable aléatoire Une variable aléatoire est une variable décrivant une partie des connaissances incertaines. Chaque variable a un domaine de valeurs qu’elle peut prendre (ex.: binaire, entier, réelle, états, etc.). On peut voir une variable comme une fonction définie sur l’espace d’échantillonnage et donnant une valeur à chaque échantillon en entrée: Types de variables aléatoires: Booléennes : le domaine est <true, false>. Exemple: DentCariée = true. Discrètes: le domaine est énumérable. Exemple: Météo = v, avec v  { soleil, pluie, nuageux, neige } Continues: le domaine continu (par exemple, l’ensemble des réels). Exemples: x  4.02, postionx  4.02, speed  20.02 P induit une distribution de probabilité pour chaque variable aléatoire X: P(X=xi) = {:X()=xi } P() Exemple: Lancer un dé: P(nombre impair) = P(1)+P(3)+P(5) = 1/6+1/6+1/6=1/2 Page 467: L’élément de base du langage est la variable aléatoire. Une variable aléatoire est une variable décrivant une partie des connaissances incertaine. Chaque variable aléatoire a un domaine (de valeurs que la variable peut prendre). Variables aléatoires booléennes, discrètes, continues (e.g., vitesse du robot). On focalise ici sur les cas discrets. IFT615 Raisonnement probabiliste

Raisonnement probabiliste Propositions Une proposition est une assertion de ce qui est vrai, c.-à-d., une assertion sur la valeur d’une variable. En d’autre mots, un événement (ensemble d’événements atomiques ou échantillons) pour lequel la proposition est vraie. Exemple: Carie= true. Noté: carie. Étant donné deux variables booléennes A et B: L’événement a est l’ensemble d’échantillons  pour lesquels A() = true L’évent  a (not a) est l’ensemble d’échantillons  pour lesquels A() = false L’évent a  b est l’ensemble des  pour lesquels A()=true et B()=true Souvent nous considérerons des échantillons sur des ensembles de variables aléatoires : l’espace d’échantillonnage est le produit cartésien des domaines des variables aléatoires. Exemple: <Carie= true, MalDeDents= false> Avec les variables booléennes, un événement correspond à une proposition ou combinaison booléenne de propositions en logique propositionnelle. Exemple: A = true (a), B = false (b), ou a   b Page 467: Une proposition est une assertion de ce qui est vraie, c’est à dire, une assertion sur la valeur d’une variable. Ce peut être une propriété ou un fait. Exemple: Carie=true est une proposition. Quand c’est binaire nous allons la noter Carie. Et carie=false: not(carie). On peut combiner des propositions élémentaires pour en faire d’autres par les connecteurs logiques standard: exemple page 468. Note: dans la logique du 1er ordre, une telle combinaison n’est plus une proposition: c’est une formule! Mais les formules sont plus générales que ce qui est permis ici: quantification, etc. IFT615 Raisonnement probabiliste

Raisonnement probabiliste Propositions (suite) Proposition = disjonction d’événements atomiques pour lesquels la proposition est vraie: Exemple: (a  b)  (a  b)  (a   b)  (a  b)  P(a  b) = P(a  b) + P(a   b) + P(a  b) IFT615 Raisonnement probabiliste

Syntax des propositions Élément de base: variable aléatoire Similaire à la logique propositionnelle: les états sont définis en assignant des valeurs à des variables aléatoires. Variables aléatoires propositionnelles ou booléenne Exemple: Carie  <true, false> (ai-je la carie?) Variables aléatoires discrètes (domaines finis or infinis) Exemple: Météo  <soleil, pluie, nuageux, neige> Météo = pluie est une proposition. Les valeurs du domaine doivent être exhaustives et mutuellement exclusives. Les propositions élémentaires sont définies en assignant des valeurs aux variables: Exemple: Météo = soleil, Carie = false (noté Carie) Les propositions complexes sont définies par des combinaisons booléennes: Exemple: (Météo = soleil)  (Carie = false) Variables aléatoires continues (bornées ou non bornées) Les valeurs  R, ou par exemple  sur l’intervalle [0, 1]. Exemple: Temp=21.6 signifie que la variable Temp a exactement la valeur 21.6 Exemple: Temp < 22.0 signifie que la variable Temp a une valeur inférieure à 22. IFT615 Raisonnement probabiliste

Syntaxe des propositions Un événement atomique est une spécification complète de l’état pour lequel l’agent est incertain. Par exemple, si le « monde » de l’agent est décrit par seulement deux variables aléatoires booléennes (Carie et MalDeDents), il y a exactement quatre états / événements atomiques possibles: Carie = false MalDeDents = false Carie = false  MalDeDents = true Carie = true  MalDeDents = false Carie = true  MalDeDents = true Les événements atomiques sont exhaustifs et mutuellement exclusifs. Page 468: Un événement atomique est une spécification complète d’un ’état possible. En d’autres mots, un événement atomique est une assignation de valeur pour chaque variable aléatoire décrivant un aspect de l’environnement. Un événement (non atomique) est une assignation de valeurs à certaines variables. Un événement atomique est une spécification complète d’un ’état possible. En d’autres mots, un événnement est une assignation de valeur pour chaque variable aléatoire décrivant un aspect de l’environnement. IFT615 Raisonnement probabiliste

Axiomes de la théorie des probabilités: Axiomes de Kolmogorov Pour toute propositoions A, B 0 ≤ P(A) ≤ 1 P(true) = 1 et P(false) = 0 P(A  B) = P(A) + P(B) - P(A  B) IFT615 Raisonnement probabiliste

Probabilité à priori/inconditionnelle La probabilité à priori ou inconditionnelle de propositions exprime le degré de croyance dans ces propositions avant l’acquisition de toute (nouvelle) information /évidence. Exemple: P(Carie = true) = 0.1 et P(Météo = soleil) = 0.72 La distribution des probabilités donne les valeurs de probabilités pour toutes les assignations possibles de valeurs aux variables: Exemple: P(Météo) = <0.72, 0.1, 0.08, 0.1> Fonction de densité de probabilités: distribution de probabilité pour une variable continue. La distribution conjointe de probabilités pour un ensemble de variables donne la probabilité pour chaque événement atomique décrit par ces variables. Exemple, la distribution conjointe P(Météo, Carie) est une matrice 4 × 2 : Météo = soleil pluie nuageux neige Carie = true 0.144 0.02 0.016 0.02 Carie = false 0.576 0.08 0.064 0.08 Page 468 Probabilité à priori Page 469 - Distribution de probabilité à priori= spécification des probabilités pour toutes les valeurs possibles d’une variable : c’est un vecteur. - Distribution de probabilités jointes: spécification des probabilités pour toutes les valeurs possibles d’un ensemble de variables: c’est une matrice (note si l’ensemble n’inclut pas toutes les variables, c’est un état partiellement décrit). - Distribution complète de probabilités jointes: inclut toutes les variables, c-à-d., tous les états complets du système (c-à-d., tous les événements). - Every question about a domain can be answered by the joint probability distribution because every event is a sum of sample points! IFT615 Raisonnement probabiliste

Probabilité à postériori/conditionnelle La probabilité conditionnelle ou à postériori tient compte des nouvelles informations/évidences disponibles. Exemple: P(carie | MalDeDents) = 0.8 C.-à-d., étant donné que la seule chose que je sais est MalDeDents. Si on constate qu’un patient a mal aux dents et aucune autre information n’est encore disponible, la probabilité qu’il ait une carie est de 0.8. Si on en apprend plus, (par exemple, on découvre une carie), on a: P(carie | MalDeDents, carie) = 1 Toutes les nouvelles informations ne sont pas pertinentes, donc on peut simplifier: Exemple: P(carie | MalDeDents, Les Canadiens ont gagné) = P(carie | MalDeDents) = 0.8 Ce type d’inférence, supportée par les connaissances du domaine, est crucial. Page 470 - Probabilité conditionnelle Equation des probabilités conditionelle + règle du produit. Page 471: - ! Probabilité condition n’est pas conséquence logique + probabilité! IFT615 Raisonnement probabiliste

Probabilité à postériori/conditionnelle Définition de la probabilité conditionnelle: P(a | b) = P(a  b) / P(b) if P(b) ≠ 0 La probabilité de a, étant donné (que tout ce qu’on sait est) b. Formulation équivalente (règle du produit): P(a  b) = P(a|b) P(b) = P(b|a)P(a) Il existe une version plus générale pour les distributions de probabilité. Exemple: P(Météo, Carie) = P(Météo | Carie) P(Carie) La règle suivante (chain rule) est obtenue par une application successive de la règle du produit: P(X1, …,Xn) = P(X1,...,Xn-1) P(Xn | X1,...,Xn-1) = P(X1,...,Xn-2) P(Xn-1 | X1,...,Xn-2) P(Xn | X1,...,Xn-1) = … = πi=1..n P(Xi | X1, … ,Xi-1) IFT615 Raisonnement probabiliste

Inférence par énumération Commencer avec la distribution conjointe des probabilités: Pour chaque proposition φ, faire une somme sur les événements atomiques pour lesquels elle est vraie: P(φ) = Σω:ω╞φ P(ω) MalDeDents  MalDeDents Croche Croche Carie 0.108 0.012 0.072 0.008  Carie 0.016 0.064 0.144 0.576 IFT615 Raisonnement probabiliste

Inférence par énumération Commencer avec la distribution conjointe des probabilités: Pour chaque proposition φ, faire une somme sur les événements atomiques pour lesquels elle est vraie : P(φ) = Σω:ω╞φ P(ω) P(MalDeDents) = 0.108 + 0.012 + 0.016 + 0.064 = 0.2 MalDeDents  MalDeDents Croche Croche Carie 0.108 0.012 0.072 0.008  Carie 0.016 0.064 0.144 0.576 IFT615 Raisonnement probabiliste

Inférence par énumération Commencer avec la distribution conjointe des probabilités: Pour chaque proposition φ, faire une somme sur les événements atomiques pour lesquels elle est vraie : P(φ) = Σω:ω╞φ P(ω) P(carie  MalDeDents) = 0.108 + 0.012 + 0.072 + 0.008 + 0.016 + 0.064 = 0.28 MalDeDents  MalDeDents Croche Croche Carie 0.108 0.012 0.072 0.008  Carie 0.016 0.064 0.144 0.576 IFT615 Raisonnement probabiliste

Inférence par énumération Commencer avec la distribution conjointe des probabilités: On peut aussi calculer les probabilités conditionnelles: P( carie | MalDeDents) = P( carie  MalDeDents) P (MalDeDents) = (0.016+0.064) / (0.108 + 0.012 + 0.016 + 0.064) = 0.4 MalDeDents  MalDeDents Croche Croche Carie 0.108 0.012 0.072 0.008  Carie 0.016 0.064 0.144 0.576 Pour vérifier, calculons: P(carie | MalDeDents) = P(carie  MalDeDents) _____________________ P (MalDeDents) = 0.108+0.012 ____________________ 0.108 + 0.012 + 0.016 + 0.064 = 0.6 IFT615 Raisonnement probabiliste

Raisonnement probabiliste Normalisation MalDeDents  MalDeDents Croche Croche Carie 0.108 0.012 0.072 0.008  Carie 0.016 0.064 0.144 0.576 Le dénominateur peut être vu comme constante de normalisation α P (Carie | MalDeDents) = α P (Carie, MalDeDents) = α [P (Carie, MalDeDents, croche) + P (Carie, MalDeDents,  croche)] = α [<0.108, 0.016> + <0.012, 0.064>] = α <0.12, 0.08> = <0.6, 0.4> avec  = 1 / P(MalDeDents) = 1/(.108 + .012 + .016 + .064) = 1/0.2 = 5. Idée générale: Calculer la contribution à la variable d’interrogation en fixant les variables d’évidences (observées) et en faisant la somme sur les variables cachées. P( carie | MalDeDents) = α P( carie, MalDeDents) ? IFT615 Raisonnement probabiliste

Inférence par énumération En général on veut calculer la probabilité conjointe à postériori sur un ensemble de variables d’interrogations X étant donné les valeurs e pour les variables d’évidence E. Soit Y l’ensemble des variables cachées (non encore observées), X la valeur recherchée, et E l’ensemble des variables d’évidence. On obtient la probabilité pour l’interrogation P(X | E = e) en faisant une sommation sur les variables cachées: P(X | E = e) = α P(X, E = e) = α Σy P(X, e, y) Les termes dans la somme sont des probabilités jointes vu que X, E et H pris ensembles couvrent toutes les variables aléatoires. Défis: Complexité en temps: O(dn), avec d la taille du plus grand domaine des variables. Complexité en espace: O(dn), pour stocker la distribution. Comment trouver les valeurs de chacune des O(dn) entrées? IFT615 Raisonnement probabiliste

Raisonnement probabiliste Indépendance Les variables A et B sont indépendantes si et seulement si P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) P(MalDeDents, Croche, Carie, Météo) = P(MalDeDents, Croche, Carie) P(Météo) 32(=23*4) entrées réduites à 12; pour n variables indépendantes, O(2n) →O(n) L’indépendance totale est puissante mais rare. L’indépendance entre les assertions permet de réduire la taille de la distribution des probabilités et rendre les inférences plus efficaces, mais c’est difficile de séparer tout l’ensemble de variables. La dentisterie est un domaine avec un grand nombre de variables, mais très peu d’entre elles sont indépendantes. Que faire? 23 : les 8 entrées précédentes + 4: les 4 entrées pour les types de temps (synny, pluie, ...), ça donne 12. IFT615 Raisonnement probabiliste

Indépendance conditionnelle Si j’ai une carie, la probabilité que la sonde croche dans la dent ne dépend pas du fait que j’aie mal à la dent ou non: (1) P(Croche | MalDeDents, Carie) = P(Croche | Carie) Même chose si je n’ai pas la carie: (2) P(Croche | MalDeDents, Carie) = P(Croche | Carie) croche est conditionnellement indépendant de MalDeDents étant donné carie: P(Croche | MalDeDents, Carie) = P(Croche | Carie) Formulations équivalentes: P(MalDeDents | Croche , Carie) = P(MalDeDents |Carie) P(MalDeDents, Croche | Carie) = P(MalDeDents |Carie) P(Croche|Carie) P(MalDeDents, Carie, Croche) a 23 – 1 = 7 entrées indépendantes IFT615 Raisonnement probabiliste

Indépendance conditionnelle Réécrivons la distribution conjointe en utilisant la règle en chaîne (chain rule): P(MalDeDents, Croche, Carie) = P(MalDeDents | Croche, Carie) P(Croche, Carie) = P(MalDeDents | Croche, Carie) P(Croche | Carie) P(Carie) = P(MalDeDents | Carie) P(Croche | Carie) P(Carie) C-à-d., 2 + 2 + 1 = 5 nombre indépendants Dans des cas idéals, l’exploitation de l’indépendance conditionnelle réduit la complexité représentation de la distribution conjointe d’une exponentielle (O(2n)) en linéaire (O(n)). En raisonnement probabiliste, l’indépendance conditionnelle est le concept de représentation des connaissances le plus basique et robuste. IFT615 Raisonnement probabiliste

Raisonnement probabiliste Règle de Bayes Règle du produit: P(ab) = P(a | b) P(b) = P(b | a) P(a) Règle de Bayes: P(a | b) = P(b | a) P(a) / P(b) ou, pour les distributions, P(Y|X) = P(X|Y) P(Y) / P(X) = αP(X|Y) P(Y) Utile pour calculer/interroger une probabilité diagnostique à partir d’une probabilité causale: P(Cause|Effect) = P(Effect|Cause) P(Cause) / P(Effect) Exemple: soit m (méningite), s(stiff neck / nuque raide), P(s|m)=0.5, P(m)=1/50000 et P(s)=1/20. P(m|s) = P(s|m) P(m) / P(s) = 0.5 × 0.00002 / 0.05 = 0.0002 Règle diagnostique: Effets observés  causes cachées Règle causale: causes cachées  effets observées Note: posterior probability of meningitis still very small! IFT615 Raisonnement probabiliste

Règle de Bayes et indépendance conditionnelle P(Carie | MalDeDents  Croche) = αP(MalDeDents  Croche | Carie) P(Carie) = αP(MalDeDents | Carie) P(Croche | Carie) P(Carie) Example d’un modèle Bayes simple (Bayesian classifier): P(Cause,Effect1, … ,Effectn) = P(Cause) πiP(Effecti|Cause) Souvent utilisé lorsque les variables-effets ne sont pas conditionnellement indépendantes étant donné les variables-causes. Le nombre total de paramètres est linéaire en n IFT615 Raisonnement probabiliste

Raisonnement probabiliste Le monde des Wumpus Problème: calculer la probabilité que [1,3], [2,2] et [3,1] contienne une fosse? 1. Identifier l’ensemble de variables aléatoires nécessaires: Pij=true ssi il y a une fosse dans [i,j] (Pij=0.2 partout sauf dans [1,1]). Bij=true ssi il y a une brise dans [i,j] Inclure seulement les variables observées B11, B12, B21 dans la distribution des probabilités (modèle). IFT615 Raisonnement probabiliste

Spécifier la distribution des probabilités 2. La distribution conjointe est P(P11 , …,P44 ,B11 ,B12 ,B21) Appliquer la règle du produit: P(B11 ,B12 ,B21|P11 ,…,P44) P(P11 ,…,P44) (On a donc P(Effect|Cause). ) Premier terme: P(B11 ,B12 ,B21|P11 ,…,P44) Probabilité conditionnelle d’une configuration/état de brises, étant donné une configuration de fosses. 1 si les fosses sont adjacentes aux brises, 0 sinon. Second terme: P(P11 ,…,P44): Probabilité à priori des configurations des fosses. Les fosses sont placés aléatoirement, avec une probabilité de 0.2 par chambre: P(P11 ,…,P44) =  (i,j)=(1,1) …(4,4) P(Pi,j) = 0.2n *0.816-n pour n fosses. IFT615 Raisonnement probabiliste

Observations et Interrogations On sait ce qui suit: b=  b11  b12  b21 known =  p11   p12   p21 Interrogation: P(P1,3 | known, b) ? Définir Unknown comme étant l’ensemble des variables Pi,j autres que celles qui sont connues (known ) et la variable d’interrogation P1,3. Avec l’inférence par énumération, on obtient: P(P1,3| known, b) =   unknown P(P1,3 , unknown, known, b) Croit exponentiellement avec le nombre de chambres. Avec12 chambre unknown: 212=4096 termes. IFT615 Raisonnement probabiliste

Utiliser l’indépendance conditionnelle Idée de base: les observations sont conditionnellement indépendantes des chambres cachées étant données les chambres adjacentes. C.-à-d., les autres chambres ne sont pas pertinentes. Définir Unknown = Fringe  Other P(b|P1,3 , known, Unknown) = P(b|P1,3, known, Fringe, Other) Réécrire la probabilité d’interrogation P(P1,3| known, b) pour exploiter cette indépendance. IFT615 Raisonnement probabiliste

Utiliser l’indépendance conditionnelle P(P1,3| known, b) =  unknown P(P1,3, unknown, known, b) =  unknown P(b|P1,3 , known, unknown) P(P1,3 , known, unknown) =  fringe other P(b| known, P1,3 , fringe, other) P(P1,3 , known, fringe, other) =  fringe other P(b| known, P1,3 , fringe) P(P1,3 , known, fringe, other) =  fringe P(b| known, P1,3 , fringe) other P(P1,3 , known, fringe, other) =  fringe P(b| known, P1,3 , fringe) other P(P1,3 )P(known) P(fringe) P(other) =  P(known) P(P1,3) fringe P(b| known, P1,3 , fringe) P(fringe) other P(other) = ’ P(P1,3) fringe P(b| known, P1,3 , fringe) P(fringe) IFT615 Raisonnement probabiliste

Utiliser l’indépendance conditionnelle (a) (b) Modèles consistant pour les variables P2,2 et P3,1, montrant P(fringe) Pour chaque modèle: (a) 3 modèles avec P1,3=true montrant 2 ou 3 fosses. (b) 2 modèles avec P1,3=false montrant 1 ou 2 fosses. P(P1,3|known, b) = ’ <0.2(0.04+0.16+0.16), 0.8(0.04+0.16)>  <0.31, 0.69> P(P2,2|known, b)  <0.86, 0.14> IFT615 Raisonnement probabiliste

Raisonnement probabiliste Résumé La théorie des probabilités est un formalisme consistent pour raisonner avec l’incertitude. Une distribution conjointe spécifie la probabilité pour chaque événement atomique. On peut répondre aux interrogations en faisant une somme sur les événements atomiques. Pour les domaines d’application réalistes, on doit trouver une façon de réduire la taille de la distribution conjointe. L’indépendance et l’indépendance conditionnelles nous fournissent les outils de base. IFT615 Raisonnement probabiliste