INTELLIGENCE ARTIFICIELLE

Slides:



Advertisements
Présentations similaires
Graphisme par ordinateur
Advertisements

Concepts avancés en mathématiques et informatique appliquées
Introduction à la notion de fonction 1. Organisation et gestion de données, fonctions 1.1. Notion de fonction ● Déterminer l'image d'un nombre par une.
Université de Nantes CHORD Vincent Trève. Introduction ● Problématique – Comment accéder efficacement aux données réparties sur un système pair à pair?
Nouveau programme de 3ème Probabilités Document de travail – Académie de Rouen
Chapitre 5. Modèles probabilistes continus Variable aléatoire continue et loi de probabilité continue Loi uniforme Loi exponentielle Loi normale Loi normale.
Volée 1316 S3 Cours No 2_3 : Le nombre en 1-2H. Les fonctions du nombre  Dénombrer, énumérer, décrire une collection. Aspect cardinal  Dater, classer,
Cours COMPOSANTES DES VECTEURS Dimitri Zuchowski et Marc-Élie Lapointe.
Concepts pour le contrôle de flux
Calcul de probabilités
Les commandes externes
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
Application des lois de probabilité -Variable aléatoire discrète-
CHAPITRE 2 : LES DISTANCES DANS L’UNIVERS
Exposé : Les arbres phylogénétiques
ASSR 1 eT 2 SESSION 2014.
Comprendre la définition de bit par seconde à partir
IFT 702 – Planification en intelligence artificielle Langage PDDL
Faculté de Sciences Sociales de Strasbourg – L1S – 2017 Séance 3
Division de la Planification et de la Recherche en Collecte
Algorithme et programmation
1.3 COORDONNÉES DES POINTS
Reprise du cours ( ) Aujourd’hui :
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
André Maïsseu et WANG Xingquan Université Versailles-Saint-Quentin-en-Yvelines France L’approche floue en tant qu’outil de la modélisation.
Chapitre 13 : Echantillonnage
Plans d’expériences: Plans factoriels
Cyber-Sphinx Séance 2.
Concepts avancés en mathématiques et informatique appliquées
INTELLIGENCE ARTIFICIELLE
INTELLIGENCE ARTIFICIELLE
INTELLIGENCE ARTIFICIELLE
Notion De Gestion De Bases De Données
Introduction aux statistiques Intervalles de confiance
Méthodologie scientifique
Chapter 12: Structures de données
Froduald Kabanza Département d’informatique Université de Sherbrooke
Evaluation par Acquis d’apprentissage
Programmation Orientée Objet
Formation sur les bases de données relationnelles.
POL1803: Analyse des techniques quantitatives
INTRODUCTION AUX THEORIES ECONOMIQUES.
LOG770 Annexe A Éléments de probabilité
Chapitre 3 : Caractéristiques de tendance centrale
SDRP & MA Problème du rendez vous : un algorithme probabiliste et une analyse probabiliste 09/11/2018.
Eléments de la Théorie des Probabilités
CHAPTER 2: Apprentissage supervisé
Présenté devant le jury formé de:
Modélisation objet avec UML
Lois de Probabilité Discrètes
Question flash TSTI2D.
LE processus d’enquête
Élections locales probabilistes
Difficultés d’apprentissage
Froduald Kabanza et Hugo Larochelle Département d’informatique
Les opérations intellectuelles et le dossier documentaire
Explorer le monde Se repérer dans le temps et dans l'espace
Laboratoire V: Création d’un protocole expérimental
Un Mécanisme d‘Adaptation Guidé par le Contexte en Utilisant une Représentation par Objets Manuele Kirsch Pinheiro Laboratoire LSR – IMAG, Équipe SIGMA.
Détermination des traces informatiques et des indicateurs d’apprentissage dans le contexte des laboratoires de science Fournier Frédéric - Potvin Patrice.
Reconnaissance de formes: lettres/chiffres
Programmation Scratch
INTELLIGENCE ARTIFICIELLE
Contextualisation : Détermination de l’intensité d’une force
INTELLIGENCE ARTIFICIELLE
INTELLIGENCE ARTIFICIELLE
Principales stratégies de compréhension en lecture
Elections locales probabilistes
Préparation aux ASSR (Niveau 5ème et 3ème)
Les données structurées et leur traitement
Transcription de la présentation:

INTELLIGENCE ARTIFICIELLE IAR-1001

Modélisation de l’incertidude et raisonnement probabiliste (Réseaux Bayesien) Introduction Probabilité jointe Marginale/Probabilité conditionnelle Chain rule Algorithme de création d’un BN Autre exemple de BN LECTURES: Chapitres 13, 14 Russell & Norvig Notes de cours (site ftp UQTR)

Introduction (Agent) Agents Utility-Based dans le contexte d’incertidude États incertains Capteurs bruités Effets des actions incertains

Introduction (Théorie probabiliste) Supposons, qu’un taxi autonome a pour but de déposer un passager à l’aéroport et ce à temps pour son vol. Un agent utility-based typique pourrait planifier une action du genre, A90, qui implique de quitter la maison 90 minutes avant le départ du vol tout en conduisant à une vitesse raisonnable, et ce même si l’aéroport est a une distance de 5 miles. Un taxi agent logique ne sera pas capable de conclure avec certitude que: “Le plan A90 nous conduit à l’aéroport à temps.” Il pourrait déduire une conclusion plus faible du genre: “ Le plan A90 nous mènera à l’aéroport à temps, si le véhicule ne brise pas ou ne manque pas d’essence, et ne fait pas un accident, et qu’il n’y a pas d’accident sur le pont, et que l’avion ne part pas avant l’heure prévue, et qu’aucun météorite ne frappe le taxi et …..” Aucune de ces conditions ne peut être deduites avec certitude, le succès de ce plan ne peut être inféré.

Introduction (Théorie probabiliste) La théorie des probabilités permet de modéliser la vraisemblance d’événements, information pouvant être dérivée des croyances/certitudes d’un agent, ou des observations empiriques de ces événements. Donne un cadre théorique pour mettre à jour la vraisemblance d’événements après l’acquisition d’observations, par exemple, après avoir observé qu’il n’y a pas de trafic, la probabilité que A90 me permette d’arriver à temps devrait changer comment ? Facilite la modélisation en permettant de considérer l’influence de phénomènes complexes comme du bruit.

Introduction (Théorie probabiliste) Si nous utilisons la théorie des probabilités pour détecter la présence de pourriels (SPAMs). Nous voulons raisonner sur la possibilité qu’un courriel soit un SPAM sachant que le diagnostic peut comporter de l’incertitude. Contient certains mots sensibles ? Source connue ? Est un SPAM ?

Introduction (Théorie probabiliste) Variables aléatoires impliquées: Inconnu: L’adresse de l’expéditeur est-elle connue ? MotSensible: Le courriel contient-il des mots contenus dans une liste de mots "sensibles" ? Pourriel: Le courriel est-il un pourriel ? "la probabilité que Inconnu=vrai et MotSensible=vrai Pourriel=vrai" La somme de ces probabilités est 1

Introduction (Théorie probabiliste) Notions de probabilités jointes (conjointes) Représente une combinaison d’assignations des variables aléatoires, donc une rangée dans la table des probabilités P(Inconnu = vrai, MotSensible=vrai, Pourriel=vrai) = 0.108 P(Inconnu = faux, MotSensible=faux, Pourriel=faux) = 0.576 P(Inconnu = faux, MotSensible=faux, Pourriel=vrai) = 0.008

Introduction (Théorie probabiliste) Notions de probabilités marginales Représente une combinaison d’assignations sur un sous-ensemble de variables aléatoires P(Inconnu = vrai, Pourriel=vrai) = P(Inconnu = vrai, MotSensible=vrai, Pourriel=vrai) + P(Inconnu = vrai, MotSensible=faux, Pourriel=vrai) = 0.108 + 0.012 = 0.12  x { vrai, faux} P(Inconnu = vrai, MotSensible = x, Pourriel=vrai) = 0.108 + 0.012 = 0.12

Introduction (Théorie probabiliste) Notions de probabilités marginales P(Pourriel=vrai) = P(Inconnu = vrai, MotSensible=vrai, Pourriel=vrai) + P(Inconnu = vrai, MotSensible=faux, Pourriel=vrai) + P(Inconnu = vrai, MotSensible=faux, Pourriel=faux) + P(Inconnu = faux, MotSensible=faux, Pourriel=vrai) = 0.108+0.012+0.072+0.008=0.2  x { vrai, faux}  y { vrai, faux} P(Inconnu = x, MotSensible = y, Pourriel=vrai) = 0.2

Introduction (Théorie probabiliste) Notions de probabilités conditionnelles Formule générale: P(A | B) = P(A, B) / P(B) sachant que P(B)  0 Si nous voulons savoir la probabilité qu’un courriel ne soit pas du SPAM sachant que la source est inconnue P(Pourriel=faux | Inconnu=vrai) = P(Pourriel=faux, Inconnu=vrai) / P(Inconnu=vrai) = (0.016+0.064)/(0.108+0.016+0.012+0.064) = 0.08/0.2 = 0.4

Introduction (Théorie probabiliste) Règle du chaînage pour n variables aléatoires X1, X2, …. Xn = P(X1) P(X2 | X1) P(X3 | X1, X2) … P(Xn| X1,..Xn-1)

Introduction (Théorie probabiliste) Avec la règle du chaînage il n’est plus nécessaire de spécifier toutes les probabilités jointes P(X1,..Xn), on pourrait plutôt spécifier P(X1), P(X2|X1), P(X3|X1,X2),..., P(Xn| X1,...,Xn-1) Nous pourrions alors spécifier les probabilités: Et pouvoir ensuite calculer les probabilités P(Pourriel, Inconnu):

Introduction (Théorie probabiliste) La règle de Bayes stipule que la probabilité: P(Cause|Effet) = P(Effet|Cause) P(Cause) / P(Effet) Par exemple: P(Pourriel| Inconnu)=P(Inconnu|Pourriel) P(Pourriel)/ P(Inconnu) P(Pourriel) est une probabilité à priori et représente notre croyance p/r au fait qu’un nouveau courriel soit un pourriel et ce avant toute observation. P(Pourriel| Inconnu) est une probabilité à posteriori et représente notre croyance actualisée après avoir observé que l’auteur du courriel est inconnu (vrai). Permet de déduire une probabilité diagnostique à partir d’une probabilité causale.

Introduction (Théorie probabiliste) La règle de Bayes permet de déduire la probabilité: P(Pourriel=faux | Inconnu=vrai)

Introduction (Théorie probabiliste) Des variables aléatoires A et B sont dites indépendantes SSI: Si nous voulons calculer la probabilité jointe P(Pluie, Pourriel) = P(Pluie) P(Pourriel)

Introduction (Théorie probabiliste) L’indépendance entre les variables permet de réduire la taille de la distribution de probabilités et de rendre les inférences plus efficaces, dans l’exemple précédent, nous n’avons qu’à stocker en mémoire P(Pluie=vrai) = 0.3 et P(Pourriel=vrai) = 0.1, plutôt que toute la table.

Introduction (Théorie probabiliste) Notions d’indépendance conditionnelle Si nous avons une carie, la probabilité que la sonde accroche dans la dent cariée ne dépend pas du fait que j’aie mal à cette dent ou non: P(Accroche|MalDeDents, Carie=vrai) = P(Accroche |Carie=vrai) De même si je n’ai pas de carie: P(Accroche|MalDeDents,Carie=faux) = P(Accroche|Carie=faux) On dit que Accroche est conditionnellement indépendante de MalDeDents étant donnée Carie, puisque: P(Accroche|MalDeDents,Carie) = P(Accroche|Carie)

Introduction (Théorie probabiliste) Notions d’indépendance conditionnelle Réécrivons la probabilité jointe en utilisant la règle du chaînage Dans certains cas l’indépendance conditionnelle réduit la complexité de représentation de la distribution jointe de exponentielle (O(2n)) à linéaire (O(n)). 2 + 2 + 1 paramètres

Introduction (Réseau Bayesien) Représentation structurée, graphique de relations probabilistes entre variables aléatoires Représentation explicite des dépendences et indépendances conditionnelles Dépendances représentées par des arcs dans un graphe Représentation efficiente des probabilités jointes Permet de répondre à diverses requêtes P (lung cancer=yes | smoking=no, positive X-ray=yes ) = ?

Introduction (Réseau Bayesien)

Introduction (Réseau Bayesien) Un domaine d’application peut être modélisé par une suite de variables aléatoires X1, X2, X3, …., Xn La connaissance contenue dans ce domaine d’application est représentée par la probabilité jointe P(X1, X2, X3, …., Xn) Exemple classique: Alarm (Pearl 1988) À LA, les vols et tremblements de terre sont communs, et déclenchent une alarme, dans ces cas Mary et John, les voisins téléphonent pour vérifier si quelqu’un est à la maison

Probabilités jointes Exemple classique: Alarm (Pearl 1988) Variables: B (vols), E (tremblement de terre), A (alarme), J (John appel), M (Mary appel) La probabilité jointe P(B, E, A, J, M) permet de modéliser l’information sous forme probabiliste

Probabilités jointes Exemple classique: Alarm (Mise en situation)

Probabilités jointes Exemple classique: Alarm (Mise en situation) Variables aléatoires

Probabilités jointes Exemple classique: Alarm (Mise en situation) Liens de dépendances: Expriment les liens de Causalité Expriment les dépendances conditionnelles

Probabilités jointes Probabilités: À priori Conditionnelles

Probabilités jointes (exemple de variables continues) Distance p/r au détecteur de mouvement Sévérité du tremblement de terre sur l’échelle de Richter D

Probabilités jointes Exemple classique: Alarm (Pearl 1988) P(B, E, A, J, M)

Marginale/probabilité conditionnelle Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle

Marginale/probabilité conditionnelle Exemple classique: Alarm (Pearl 1988) Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle

Marginale/probabilité conditionnelle Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? 0.000115/(0.000115 + 0.00015) = 0.434

Marginale/probabilité conditionnelle Exemple classique: Alarm (Pearl 1988) Sachant que la probabilité jointe permet d’extraire les diverses relations entre les variables (informations), il devient alors possible de faire de l’inférence: Inférence diagnostic: inférer les causes à partir d’effets (ex: médecine, déduire une maladie à partir de symptômes), P(B=y|M=Y) Inférence prédictive: inférer les effets à partir des causes, P(M=y|B=y)

Marginale/probabilité conditionnelle Exemple classique: Alarm (Pearl 1988) Cependant, la probabilité jointe P(X1, X2, X3, …., Xn) requiert: 2n données pour spécifier les probabilités Donc, difficile d’acquérir ces probabilités Stockage exponentiel Mais en exploitant l’indépendance conditionnelle et la règle de probabilité en chaîne (chain rule) il devient possible de réduire le nombres de paramètres requis pour évaluer les probabilités jointes

Règle de chaînage Exemple classique: Alarm (Pearl 1988) Chain rule (règle de chaînage)

Règle de chaînage Exemple classique: Alarm (Pearl 1988) Sachant que: Alors: Cette dernière opération comporte moins de termes

Règle du chaînage Exemple classique: Alarm (Pearl 1988) CPT (conditional probability tables)

Algorithme Exemple classique: Alarm (Pearl 1988) Réseau bayesien correspondant

Algorithme Algorithme de construction d’un réseau bayesien Choisir un ensemble de n variables descriptives. Choisir un ordre pour les variables. À partir d’un réseau vide ajouter des variables 1 par 1 selon l’ordonnancement. Pour ajouter la i ème variable X i Déterminer pa(Xi ) dans (X11, . . . , X i-1) Tel que P(X i |X 1, . . . , X i-1) = P(X i |pa(X i)) Relier un arc entre les variables pa(X i) à X i.

Algorithme Ordre 1 (B, E, A, M, J)

Algorithme Ordre 2 (M, J, A, B, E) ?

Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement

Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement X

Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement X X

Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement X X  X

Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement X X  X X 

Algorithme Ordre 3 (M, J, E, B, A) ?

Autres exemples de réseau Bayesien Exemple de réseau Bayesien pour le monitorage de la fatigue au volant (Information Fusion with Bayesian Metwork for Monitoring Human Fatigue, Ji et al.)

Autres exemples de réseau Bayesien Exemple de réseau Bayesien pour le monitorage de la fatigue au volant: Probabilités à priori

Autres exemples de réseau Bayesien Exemple de réseau Bayesien pour le monitorage de la fatigue au volant: Probabilités conditionnelles des nœuds enfants du nœud Fatigue

Autres exemples de réseau Bayesien Exemple de réseau Bayesien pour le monitorage de la fatigue au volant: Probabilités conditionnelles des nœuds enfants du nœud Fatigue (suite …..)

Autres exemples de réseau Bayesien Exemple de réseau Bayesien pour le monitorage de la fatigue au volant: Résultats d’inférence du réseau Bayesien MSBNx permet de faire ces inférences Top-Down (conditions Environnementales) Buttom-Up (informations Visuelles)

Autres exemples de réseau Bayesien Exemple de réseau Bayesien pour le monitorage des facultés affaiblies

Autres exemples de réseau Bayesien Exemple de réseau Bayesien: acquisition des évidences

Autres exemples de réseau Bayesien Exemple de réseau Bayesien: acquisition des évidences

Introduction (Réseau Bayesien) Exemple de réseau Bayesien: acquisition des évidences

Introduction (Réseau Bayesien) Exemple de réseau Bayesien: acquisition des évidences