La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

INTELLIGENCE ARTIFICIELLE

Présentations similaires


Présentation au sujet: "INTELLIGENCE ARTIFICIELLE"— Transcription de la présentation:

1 INTELLIGENCE ARTIFICIELLE
IAR-1001

2 Modélisation de l’incertidude et raisonnement probabiliste (Réseaux Bayesien)
Introduction Probabilité jointe Marginale/Probabilité conditionnelle Chain rule Algorithme de création d’un BN Autre exemple de BN LECTURES: Chapitres 13, 14 Russell & Norvig Notes de cours (site ftp UQTR)

3 Introduction (Agent) Agents Utility-Based dans le contexte d’incertidude États incertains Capteurs bruités Effets des actions incertains

4 Introduction (Théorie probabiliste)
Supposons, qu’un taxi autonome a pour but de déposer un passager à l’aéroport et ce à temps pour son vol. Un agent utility-based typique pourrait planifier une action du genre, A90, qui implique de quitter la maison 90 minutes avant le départ du vol tout en conduisant à une vitesse raisonnable, et ce même si l’aéroport est a une distance de 5 miles. Un taxi agent logique ne sera pas capable de conclure avec certitude que: “Le plan A90 nous conduit à l’aéroport à temps.” Il pourrait déduire une conclusion plus faible du genre: “ Le plan A90 nous mènera à l’aéroport à temps, si le véhicule ne brise pas ou ne manque pas d’essence, et ne fait pas un accident, et qu’il n’y a pas d’accident sur le pont, et que l’avion ne part pas avant l’heure prévue, et qu’aucun météorite ne frappe le taxi et …..” Aucune de ces conditions ne peut être deduites avec certitude, le succès de ce plan ne peut être inféré.

5 Introduction (Théorie probabiliste)
La théorie des probabilités permet de modéliser la vraisemblance d’événements, information pouvant être dérivée des croyances/certitudes d’un agent, ou des observations empiriques de ces événements. Donne un cadre théorique pour mettre à jour la vraisemblance d’événements après l’acquisition d’observations, par exemple, après avoir observé qu’il n’y a pas de trafic, la probabilité que A90 me permette d’arriver à temps devrait changer comment ? Facilite la modélisation en permettant de considérer l’influence de phénomènes complexes comme du bruit.

6 Introduction (Théorie probabiliste)
Si nous utilisons la théorie des probabilités pour détecter la présence de pourriels (SPAMs). Nous voulons raisonner sur la possibilité qu’un courriel soit un SPAM sachant que le diagnostic peut comporter de l’incertitude. Contient certains mots sensibles ? Source connue ? Est un SPAM ?

7 Introduction (Théorie probabiliste)
Variables aléatoires impliquées: Inconnu: L’adresse de l’expéditeur est-elle connue ? MotSensible: Le courriel contient-il des mots contenus dans une liste de mots "sensibles" ? Pourriel: Le courriel est-il un pourriel ? "la probabilité que Inconnu=vrai et MotSensible=vrai Pourriel=vrai" La somme de ces probabilités est 1

8 Introduction (Théorie probabiliste)
Notions de probabilités jointes (conjointes) Représente une combinaison d’assignations des variables aléatoires, donc une rangée dans la table des probabilités P(Inconnu = vrai, MotSensible=vrai, Pourriel=vrai) = P(Inconnu = faux, MotSensible=faux, Pourriel=faux) = 0.576 P(Inconnu = faux, MotSensible=faux, Pourriel=vrai) = 0.008

9 Introduction (Théorie probabiliste)
Notions de probabilités marginales Représente une combinaison d’assignations sur un sous-ensemble de variables aléatoires P(Inconnu = vrai, Pourriel=vrai) = P(Inconnu = vrai, MotSensible=vrai, Pourriel=vrai) + P(Inconnu = vrai, MotSensible=faux, Pourriel=vrai) = = 0.12  x { vrai, faux} P(Inconnu = vrai, MotSensible = x, Pourriel=vrai) = = 0.12

10 Introduction (Théorie probabiliste)
Notions de probabilités marginales P(Pourriel=vrai) = P(Inconnu = vrai, MotSensible=vrai, Pourriel=vrai) + P(Inconnu = vrai, MotSensible=faux, Pourriel=vrai) + P(Inconnu = vrai, MotSensible=faux, Pourriel=faux) + P(Inconnu = faux, MotSensible=faux, Pourriel=vrai) = =0.2  x { vrai, faux}  y { vrai, faux} P(Inconnu = x, MotSensible = y, Pourriel=vrai) = 0.2

11 Introduction (Théorie probabiliste)
Notions de probabilités conditionnelles Formule générale: P(A | B) = P(A, B) / P(B) sachant que P(B)  0 Si nous voulons savoir la probabilité qu’un courriel ne soit pas du SPAM sachant que la source est inconnue P(Pourriel=faux | Inconnu=vrai) = P(Pourriel=faux, Inconnu=vrai) / P(Inconnu=vrai) = ( )/( ) = 0.08/0.2 = 0.4

12 Introduction (Théorie probabiliste)
Règle du chaînage pour n variables aléatoires X1, X2, …. Xn = P(X1) P(X2 | X1) P(X3 | X1, X2) … P(Xn| X1,..Xn-1)

13 Introduction (Théorie probabiliste)
Avec la règle du chaînage il n’est plus nécessaire de spécifier toutes les probabilités jointes P(X1,..Xn), on pourrait plutôt spécifier P(X1), P(X2|X1), P(X3|X1,X2),..., P(Xn| X1,...,Xn-1) Nous pourrions alors spécifier les probabilités: Et pouvoir ensuite calculer les probabilités P(Pourriel, Inconnu):

14 Introduction (Théorie probabiliste)
La règle de Bayes stipule que la probabilité: P(Cause|Effet) = P(Effet|Cause) P(Cause) / P(Effet) Par exemple: P(Pourriel| Inconnu)=P(Inconnu|Pourriel) P(Pourriel)/ P(Inconnu) P(Pourriel) est une probabilité à priori et représente notre croyance p/r au fait qu’un nouveau courriel soit un pourriel et ce avant toute observation. P(Pourriel| Inconnu) est une probabilité à posteriori et représente notre croyance actualisée après avoir observé que l’auteur du courriel est inconnu (vrai). Permet de déduire une probabilité diagnostique à partir d’une probabilité causale.

15 Introduction (Théorie probabiliste)
La règle de Bayes permet de déduire la probabilité: P(Pourriel=faux | Inconnu=vrai)

16 Introduction (Théorie probabiliste)
Des variables aléatoires A et B sont dites indépendantes SSI: Si nous voulons calculer la probabilité jointe P(Pluie, Pourriel) = P(Pluie) P(Pourriel)

17 Introduction (Théorie probabiliste)
L’indépendance entre les variables permet de réduire la taille de la distribution de probabilités et de rendre les inférences plus efficaces, dans l’exemple précédent, nous n’avons qu’à stocker en mémoire P(Pluie=vrai) = 0.3 et P(Pourriel=vrai) = 0.1, plutôt que toute la table.

18 Introduction (Théorie probabiliste)
Notions d’indépendance conditionnelle Si nous avons une carie, la probabilité que la sonde accroche dans la dent cariée ne dépend pas du fait que j’aie mal à cette dent ou non: P(Accroche|MalDeDents, Carie=vrai) = P(Accroche |Carie=vrai) De même si je n’ai pas de carie: P(Accroche|MalDeDents,Carie=faux) = P(Accroche|Carie=faux) On dit que Accroche est conditionnellement indépendante de MalDeDents étant donnée Carie, puisque: P(Accroche|MalDeDents,Carie) = P(Accroche|Carie)

19 Introduction (Théorie probabiliste)
Notions d’indépendance conditionnelle Réécrivons la probabilité jointe en utilisant la règle du chaînage Dans certains cas l’indépendance conditionnelle réduit la complexité de représentation de la distribution jointe de exponentielle (O(2n)) à linéaire (O(n)). paramètres

20 Introduction (Réseau Bayesien)
Représentation structurée, graphique de relations probabilistes entre variables aléatoires Représentation explicite des dépendences et indépendances conditionnelles Dépendances représentées par des arcs dans un graphe Représentation efficiente des probabilités jointes Permet de répondre à diverses requêtes P (lung cancer=yes | smoking=no, positive X-ray=yes ) = ?

21 Introduction (Réseau Bayesien)

22 Introduction (Réseau Bayesien)
Un domaine d’application peut être modélisé par une suite de variables aléatoires X1, X2, X3, …., Xn La connaissance contenue dans ce domaine d’application est représentée par la probabilité jointe P(X1, X2, X3, …., Xn) Exemple classique: Alarm (Pearl 1988) À LA, les vols et tremblements de terre sont communs, et déclenchent une alarme, dans ces cas Mary et John, les voisins téléphonent pour vérifier si quelqu’un est à la maison

23 Probabilités jointes Exemple classique: Alarm (Pearl 1988)
Variables: B (vols), E (tremblement de terre), A (alarme), J (John appel), M (Mary appel) La probabilité jointe P(B, E, A, J, M) permet de modéliser l’information sous forme probabiliste

24 Probabilités jointes Exemple classique: Alarm (Mise en situation)

25 Probabilités jointes Exemple classique: Alarm (Mise en situation)
Variables aléatoires

26 Probabilités jointes Exemple classique: Alarm (Mise en situation)
Liens de dépendances: Expriment les liens de Causalité Expriment les dépendances conditionnelles

27 Probabilités jointes Probabilités: À priori Conditionnelles

28 Probabilités jointes (exemple de variables continues)
Distance p/r au détecteur de mouvement Sévérité du tremblement de terre sur l’échelle de Richter D

29 Probabilités jointes Exemple classique: Alarm (Pearl 1988)
P(B, E, A, J, M)

30 Marginale/probabilité conditionnelle
Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle

31 Marginale/probabilité conditionnelle
Exemple classique: Alarm (Pearl 1988) Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle

32 Marginale/probabilité conditionnelle
Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? /( ) = 0.434

33 Marginale/probabilité conditionnelle
Exemple classique: Alarm (Pearl 1988) Sachant que la probabilité jointe permet d’extraire les diverses relations entre les variables (informations), il devient alors possible de faire de l’inférence: Inférence diagnostic: inférer les causes à partir d’effets (ex: médecine, déduire une maladie à partir de symptômes), P(B=y|M=Y) Inférence prédictive: inférer les effets à partir des causes, P(M=y|B=y)

34 Marginale/probabilité conditionnelle
Exemple classique: Alarm (Pearl 1988) Cependant, la probabilité jointe P(X1, X2, X3, …., Xn) requiert: 2n données pour spécifier les probabilités Donc, difficile d’acquérir ces probabilités Stockage exponentiel Mais en exploitant l’indépendance conditionnelle et la règle de probabilité en chaîne (chain rule) il devient possible de réduire le nombres de paramètres requis pour évaluer les probabilités jointes

35 Règle de chaînage Exemple classique: Alarm (Pearl 1988)
Chain rule (règle de chaînage)

36 Règle de chaînage Exemple classique: Alarm (Pearl 1988) Sachant que:
Alors: Cette dernière opération comporte moins de termes

37 Règle du chaînage Exemple classique: Alarm (Pearl 1988)
CPT (conditional probability tables)

38 Algorithme Exemple classique: Alarm (Pearl 1988)
Réseau bayesien correspondant

39 Algorithme Algorithme de construction d’un réseau bayesien
Choisir un ensemble de n variables descriptives. Choisir un ordre pour les variables. À partir d’un réseau vide ajouter des variables 1 par 1 selon l’ordonnancement. Pour ajouter la i ème variable X i Déterminer pa(Xi ) dans (X11, , X i-1) Tel que P(X i |X 1, , X i-1) = P(X i |pa(X i)) Relier un arc entre les variables pa(X i) à X i.

40 Algorithme Ordre 1 (B, E, A, M, J)

41 Algorithme Ordre 2 (M, J, A, B, E) ?

42 Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement

43 Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement X

44 Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement X X

45 Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement X X X

46 Algorithme Ordre 2 (M, J, A, B, E) ? Visuellement X X X X

47 Algorithme Ordre 3 (M, J, E, B, A) ?

48 Autres exemples de réseau Bayesien
Exemple de réseau Bayesien pour le monitorage de la fatigue au volant (Information Fusion with Bayesian Metwork for Monitoring Human Fatigue, Ji et al.)

49 Autres exemples de réseau Bayesien
Exemple de réseau Bayesien pour le monitorage de la fatigue au volant: Probabilités à priori

50 Autres exemples de réseau Bayesien
Exemple de réseau Bayesien pour le monitorage de la fatigue au volant: Probabilités conditionnelles des nœuds enfants du nœud Fatigue

51 Autres exemples de réseau Bayesien
Exemple de réseau Bayesien pour le monitorage de la fatigue au volant: Probabilités conditionnelles des nœuds enfants du nœud Fatigue (suite …..)

52 Autres exemples de réseau Bayesien
Exemple de réseau Bayesien pour le monitorage de la fatigue au volant: Résultats d’inférence du réseau Bayesien MSBNx permet de faire ces inférences Top-Down (conditions Environnementales) Buttom-Up (informations Visuelles)

53 Autres exemples de réseau Bayesien
Exemple de réseau Bayesien pour le monitorage des facultés affaiblies

54 Autres exemples de réseau Bayesien
Exemple de réseau Bayesien: acquisition des évidences

55 Autres exemples de réseau Bayesien
Exemple de réseau Bayesien: acquisition des évidences

56 Introduction (Réseau Bayesien)
Exemple de réseau Bayesien: acquisition des évidences

57 Introduction (Réseau Bayesien)
Exemple de réseau Bayesien: acquisition des évidences


Télécharger ppt "INTELLIGENCE ARTIFICIELLE"

Présentations similaires


Annonces Google