La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

IFT 615 – Intelligence artificielle Raisonnement probabiliste - introduction Froduald Kabanza Département dinformatique Université de Sherbrooke planiart.usherbrooke.ca/kabanza/cours/ift615.

Présentations similaires


Présentation au sujet: "IFT 615 – Intelligence artificielle Raisonnement probabiliste - introduction Froduald Kabanza Département dinformatique Université de Sherbrooke planiart.usherbrooke.ca/kabanza/cours/ift615."— Transcription de la présentation:

1 IFT 615 – Intelligence artificielle Raisonnement probabiliste - introduction Froduald Kabanza Département dinformatique Université de Sherbrooke planiart.usherbrooke.ca/kabanza/cours/ift615

2 Sujets couverts Introduction au raisonnement probabiliste raisonnement avec incertitude révision des concepts de base en théorie des probabilités IFT615Froduald Kabanza2

3 Rappel : Utility-based agents IFT615Froduald Kabanza3 Les actions peuvent avoir des effets incertains ! Les capteurs peuvent être bruités… État incertain.

4 Incertitude Soit A t laction daller à laéroport t minutes avant le départ de lavion A t me permettra-t-il darriver à temps? Problèmes : observabilité partielle (conditions routières, etc.) senseurs bruités (annonces du trafic, etc.) incertitude dans leffet des actions (crevaisons, pannes, etc.) immense complexité pour modéliser les actions et le trafic Un raisonnement purement logique et déterministe : risque de tirer des conclusions erronées »« A 90 me permettra darriver à temps » (impossible de faire cette garantie) risque de tirer des conclusions peu exploitables du point de vue de la prise de décision »« A 25 me permettra darriver à temps, sil ne pleut pas, sil ny a pas daccident, si mes pneus ne crèvent pas, etc. » »« A 1440 me permettra presque certainement darriver à temps, mais je devrai passer une nuit à laéroport. » IFT615Froduald Kabanza4

5 Modéliser lincertitude à laide probabilités Théorie des probabilités permet de modéliser la vraisemblance dévénements »linformation sur la vraisemblance est dérivée – des croyances/certitudes dun agent, ou – dobservations empiriques de ces événements donne un cadre théorique pour mettre à jour la vraisemblance dévénements après lacquisition dobservations »après avoir observé quil ny a pas de trafic, la probabilité que A 25 me permette darriver à temps doit changer comment ? facilite la modélisation en permettant de considérer linfluence de phénomènes complexes comme du « bruit » IFT615Froduald Kabanza5

6 Exemple : un patient a-t-il une carie ? On considère le patient dun dentiste on souhaite raisonner sur la possibilité quil ait une carie en tenant compte de lincertitude associée à un tel diagnostique IFT615Froduald Kabanza6 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux 0.576

7 Variable aléatoire Variables aléatoires : MalDeDent : est-ce que le patient a mal aux dents Croche : est-ce que le dentiste a trouvé un « trou » dans la dent avec sa sonde Carie : est-ce que le patient a une carie IFT615Froduald Kabanza7 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux « la probabilité que MalDeDent=vrai et Croche=vrai et Carie=vrai » toutes ces probabilités somment à 1

8 Univers et événement élémentaire Événement élémentaire : un état possible de lenvironnement cest une rangée de la table ci-dessous, un événement au niveau le plus simple Univers : lensemble des événements élémentaires possibles cest lensemble de toutes les rangées IFT615Froduald Kabanza8 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux 0.576

9 Probabilité conjointe Probabilités conjointes : probabilité assignation de toutes la variables P(MalDeDent=vrai, Croche=vrai, Carie=vrai) = (10.8%) P(MalDeDent=faux, Croche=faux, Carie=vrai) = (0.8%) IFT615Froduald Kabanza9 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux 0.576

10 Probabilité marginale Probabilités marginales : probabilité sur un sous-ensemble des variables P(MalDeDent=vrai, Carie=vrai) = P(MalDeDent=vrai, Croche=vrai, Carie=vrai) + P(MalDeDent=vrai, Croche=faux, Carie=vrai) = Σ x {vrai, faux} P(MalDeDent=vrai, Croche=x, Carie=vrai) = = 0.12 IFT615Froduald Kabanza10 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux 0.576

11 Probabilité marginale Probabilités marginales : probabilité sur un sous-ensemble des variables P(Carie=vrai) = Σ x {vrai, faux} Σ y {vrai, faux} P(MalDeDents=x, Croche=y, Carie=vrai) = = 0.2 IFT615Froduald Kabanza11 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux 0.576

12 Probabilité dune disjonction Probabilités de disjonction (« ou ») dévénements : P(Carie=vrai ou MalDeDent=faux) = P(Carie=vrai) + P(MalDeDent=faux) - P(Carie=vrai, MalDeDent=faux) = 1 - P(Carie=faux, MalDeDent=vrai) = 1 – – = 0.92 IFT615Froduald Kabanza12 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux 0.576

13 Probabilité dun événement en général On peut calculer la probabilité dévénements arbitrairement complexes il suffit dadditionner les probabilités des événements élémentaires associés P( (Carie=vrai, MalDeDent=faux) ou (Croche=faux, Carie=faux) ) = = 0.72 IFT615Froduald Kabanza13 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux 0.576

14 Probabilité conditionnelle Probabilités conditionnelles : P(Carie=faux | MalDeDent=vrai) = P(Carie=faux, MalDeDent=vrai) / P(MalDeDent=vrai) = ( ) / ( ) = 0.4 IFT615Froduald Kabanza14 MalDeDentCrocheCarieProbabilité vrai vrai faux0.016 vraifauxvrai0.012 vraifaux fauxvrai fauxvraifaux0.144 faux vrai0.008 faux vrai seulement si P(MalDeDent=vrai) 0 En mots: « sachant que MalDeDent=vrai, quelle est la probabilité que Carie=faux »

15 Distribution de probabilités Distribution de probabilités : lénumération des probabilités pour toutes les valeurs possibles de variables aléatoires Exemples : P(Carie) = [ P(Carie=faux), P(Carie=vrai) ] = [ 0.8, 0.2 ] P(Carie, MalDeDent) = [ [ P(Carie=faux, MalDeDent=faux), P(Carie=vrai, MalDeDent=faux) ], [ P(Carie=faux, MalDeDent=vrai), P(Carie=vrai, MalDeDent=vrai) ] ] = [ [ 0.72, 0.08], [0.08, 0.12] ] La somme est toujours égale à 1 Jutilise le symbole P pour les distributions et P pour les probabilités P(Carie) désignera la probabilité P(Carie=x) pour une valeur x non-spécifiée »cest un élément quelconque de P(Carie) Le choix dénumérer les probabilités dans un tableau 2D est arbitraire IFT615Froduald Kabanza15

16 Distribution conditionnelle On peut faire la même chose pour le cas conditionnel Exemple : P(Carie | MalDeDent=vrai) = [ P(Carie=faux | MalDeDent=vrai), P(Carie=vrai | MalDeDent=vrai) ] = [ 0.4, 0.6 ] P(Carie | MalDeDent) = [ [ P(Carie=faux | MalDeDent=faux), P(Carie=vrai | MalDeDent=faux)], [ P(Carie=faux | MalDeDent=vrai), P(Carie=vrai | MalDeDent=vrai)] ] = [ [ 0.9, 0.1], [0.4, 0.6] ] Chaque sous-ensemble de probabilités associé aux mêmes valeurs des variables sur lesquelles on conditionne somme à 1 P(Carie | MalDeDent) contient deux distributions de probabilités sur la variable Carie : une dans le cas où MalDeDent=faux, lautre lorsque MalDeDent=vrai IFT615Froduald Kabanza16 somme à 1

17 Distribution conditionnelle Une distribution conditionnelle peut être vue comme une distribution renormalisée afin de satisfaire les conditions de sommation à 1 Exemple : P(Carie | MalDeDent=vrai) = α P(Carie, MalDeDent=vrai) = α [0.08, 0.12] = (1/ ( )) [0.08, 0.12] = [ 0.4, 0.6 ] P(Carie | MalDeDent) = [α faux P(Carie, MalDeDent=faux), α vrai P(Carie, MalDeDent=vrai) ] = [ [ 0.72, 0.08] / ( ), [0.08, 0.12] / ( ) ] = [ [ 0.9, 0.1], [0.4, 0.6] ] IFT615Froduald Kabanza17

18 Règle de chaînage Règle du produit : P(Carie=faux, MalDeDent=vrai) = P(Carie=faux | MalDeDent=vrai) P(MalDeDent=vrai) = P(MalDeDent=vrai | Carie=faux) P(Carie=faux) En général : P(Carie, MalDeDent) = P(Carie | MalDeDent) P(MalDeDent) = P(MalDeDent | Carie) P(Carie) Règle de chaînage (chain rule) pour n variables X 1... X n : P(X 1, …,X n ) = P(X 1,...,X n-1 ) P(X n | X 1,...,X n-1 ) = P(X 1,...,X n-2 ) P(X n-1 | X 1,...,X n-2 ) P(X n | X 1,...,X n-1 ) = … = Π i =1..n P(X i | X 1, …,X i-1 ) IFT615Froduald Kabanza18

19 Règle de chaînage La règle du chaînage est vraie, quelle que soit la distribution de X 1... X n Plutôt que de spécifier toutes les probabilités jointes P(X 1,..., X n ), on pourrait plutôt spécifier P(X 1 ), P(X 2 |X 1 ), P(X 3 |X 1, X 2 ),..., P(X n | X 1,...,X n-1 ) Exemple, on aurait pu spécifier : P(Carie=faux) = 0.8, P(Carie=vrai) = 0.2 P(MalDeDent=faux| Carie=faux) = 0.9, P(MalDeDent=vrai| Carie=faux) = 0.1 P(MalDeDent=faux| Carie=vrai) = 0.4, P(MalDeDent=vrai | Carie=vrai) = 0.6 On aurait tout les ingrédients pour calculer les P(Carie, MalDeDent) : P(Carie=faux, MalDeDent=vrai) = P(MalDeDent=vrai |Carie=faux) P(Carie=faux) = 0.1 * 0.8 = 0.08 P(Carie=vrai, MalDeDent=vrai) = P(MalDeDent=vrai|Carie=vrai) P(Carie=vrai) = 0.6 * 0.2 = 0.12 IFT615Froduald Kabanza19

20 Règle de Bayes On pourrait aussi calculer P(Carie=faux | MalDeDent=vrai) : P( carie | malDeDent) = P( carie, malDeDent) / P(malDeDent) = P( carie, malDeDent) / ( P(malDeDent, carie) + P(malDeDent, carie)) = α P(malDeDent| carie) P( carie) = 0.08 / ( ) = 0.4 On appelle P(Carie) une probabilité a priori cest notre croyance p/r à la présence dune carie avant toute observation On appelle P(Carie| MalDeDent) une probabilité a posteriori cest notre croyance mise à jour après avoir observé MalDeDent La règle de Bayes lie ces deux probabilités ensemble α P( carie | malDeDent) = P(malDeDent| carie) P( carie) Donne une probabilité diagnostique à partir dune probabilité causale : P(Cause|Effect) = P(Effect|Cause) P(Cause) / P(Effect) IFT615Froduald Kabanza20 Carie=faux carie Carie=vrai carie

21 Indépendance Soit les variables A et B, elles sont indépendantes si et seulement si P(A|B) = P(A) ou P(B|A) = P(B) ou P(A, B) = P(A) P(B) Exemple : P(Pluie, Carie) = P(Pluie) P(Carie) IFT615Froduald Kabanza21 PluieCarieProbabilité vrai 0.03 vraifaux0.27 fauxvrai0.07 faux 0.63 P(Pluie = vrai) = 0.3 = P(pluie) P(carie) = 0.3 * 0.1 = P(pluie) P( carie) = 0.3 * 0.9 = P( pluie) P(carie) = 0.7 * 0.1 = P( pluie) P( carie) = 0.7 * 0.9 P(Carie = vrai) = 0.1

22 Indépendance Lindépendance totale est puissante mais rare Lindépendance entre les variables permet de réduire la taille de la distribution de probabilités et rendre les inférences plus efficaces dans lexemple précédent, on na quà stocker en mémoire P(Pluie = vrai) = 0.3 et P(Carie = vrai) = 0.1, plutôt que la table au complet Mais il est rare dêtre dans une situation où toutes les variables sont réellement indépendantes IFT615Froduald Kabanza22

23 Indépendance conditionnelle Si jai une carie, la probabilité que la sonde accroche dans la dent ne dépend pas du fait que jaie mal à la dent ou non : P(Croche | MalDeDents, Carie=vrai) = P(Croche | Carie=vrai) Même chose si je nai pas la carie : P(Croche | MalDeDents, Carie=faux) = P(Croche | Carie=faux) On dit que Croche est conditionnellement indépendante de MalDeDents étant donné Carie, puisque : P(Croche | MalDeDents, Carie) = P(Croche | Carie) Formulations équivalentes : P(MalDeDents | Croche, Carie) = P(MalDeDents |Carie) P(MalDeDents, Croche | Carie) = P(MalDeDents |Carie) P(Croche|Carie) IFT615Froduald Kabanza23

24 Indépendance conditionnelle Réécrivons la distribution conjointe en utilisant la règle de chaînage (chain rule) : P(MalDeDents, Croche, Carie) = P(MalDeDents | Croche, Carie) P(Croche, Carie) = P(MalDeDents | Croche, Carie) P(Croche | Carie) P(Carie) = P(MalDeDents | Carie) P(Croche | Carie) P(Carie) C-à-d., = 5 paramètres individuels/distincts Dans des cas idéals, lexploitation de lindépendance conditionnelle réduit la complexité de représentation de la distribution conjointe de exponentielle (O(2 n )) en linéaire (O(n)) En raisonnement probabiliste, lindépendance conditionnelle est le concept de représentation des connaissances le plus basique et utile IFT615Froduald Kabanza24

25 Autres types de variables aléatoires On sest concentré sur des variables aléatoires Booléennes ou binaires le domaine, c.-à-d. lensemble des valeurs possibles de la variable, était toujours {vrai, faux} On pourrait avoir dautres types de variables, avec des domaines différents : Discrètes : le domaine est énumérable »Météo {soleil, pluie, nuageux, neige} »lorsquon mraginalise, on doit sommer sur toutes les valeurs : P(Température) = Σ x {soleil, pluie, nuageux, neige} P(Température, Météo=x) Continues : le domaine est continu (par exemple, lensemble des réels) »exemple : PositionX = 4.2 »le calcul des probabilités marginales nécessite des intégrales IFT615Froduald Kabanza25

26 En bref Probabilité jointe : P(X 1, …,X n ) Probabilité marginale : P(X i ), P(X i, X j ), etc. Probabilité conditionnelle : P(X 1, …,X k |X k+1, …,X n ) = P(X 1, …,X k, X k+1, …,X n ) P( X k+1, …,X n ) Régle de chaînage : P(X 1, …,X n ) = Π i =1..n P(X i | X 1, …,X i-1 ) Indépendance : X i et X j sont indépendantes si P(X i,X j ) = P(X i ) P(X j ), ou P(X i |X j ) = P(X i ) ou P(X j |X i ) = P(X j ) Indépendance conditionnelle : X i et X j sont indépendante sachant X k si P(X i,X j |X k ) = P(X i |X k ) P(X j |X k ) ou P(X i |X j,X k ) = P(X i |X k ) ou P(X j |X i,X k ) = P(X j |X k ) Règle de Bayes : P(X 1, …,X k |X k+1, …,X n ) = P(X k+1, …,X n | X 1, …,X k ) P(X 1, …,X k ) P( X k+1, …,X n ) IFT615Froduald Kabanza26

27 Le monde des Wumpus Problème: calculer la probabilité que [1,3], [2,2] et [3,1] contienne une fosse 1. Identifier lensemble de variables aléatoires nécessaires: P ij =true ssi il y a une fosse dans [i,j] (Pij=0.2 partout sauf dans [1,1]). B ij =true ssi il y a une brise dans [i,j] Inclure seulement les variables observées B 11, B 12, B 21 dans la distribution des probabilités (modèle). IFT615© Froduald Kabanza27

28 Spécifier la distribution des probabilités 2. Spécifier la distribution conjointe ( P(P 1,1, …,P 4,4,B 1,1,B 1,2,B 2,1 ) ) appliquer la règle du produit : P(B 1,1,B 1,2,B 2,1 |P 1,1,…,P 4,4 ) P(P 1,1,…,P 4,4 ) (on spécifie une forme P(Effect|Cause) ) premier terme : P(B 1,1,B 1,2,B 2,1 |P 1,1,…,P 4,4 ) »probabilité conditionnelle dune configuration/état de brises, étant donnée une configuration de fosses »1 si les fosses sont adjacentes aux brises, 0 sinon second terme : P(P 1,1,…,P 4,4 ) »probabilité a priori des configurations des fosses »les fosses sont placées aléatoirement, avec une probabilité de 0.2 par chambre »si P 1,1,…,P 4,4 sont telles quil y a exactement n fosses, on aura P(P 1,1,…,P 4,4 ) = Π (i,j)=(1,1) …(4,4) P(P i,j ) = 0.2 n * n IFT615Froduald Kabanza28

29 Observations et requête 3. Identifier les observations on sait ce qui suit : »b = b 1,1 b 1,2 b 2,1 »known = p 1,1 p 1,2 p 2,1 4. Identifier les variables de requête y a-t-il une fosse à la position 1,3? P(P 1,3 | known, b)? 3. Identifier les variables cachées on définit Unknown comme étant lensemble des variables P i,j autres que celles qui sont connues (known) et la variable de requête P 1,3 IFT615Froduald Kabanza29

30 Observations et requête 6. Faire linférence avec linférence par énumération, on obtient : P(P 1,3 | known, b) = unknown P(P 1,3, unknown, known, b) croît exponentiellement avec le nombre de chambres! »avec 12 chambres unknown : 2 12 =4096 termes IFT615Froduald Kabanza30

31 Utiliser lindépendance conditionnelle Idée de base: les observations sont conditionnellement indépendantes des chambres cachées étant données les chambres adjacentes. C.-à-d., les autres chambres ne sont pas pertinentes. Définir Unknown = Fringe Other P(b|P 1,3, known, Unknown) = P(b|P 1,3, known, Fringe, Other) Réécrire la probabilité dinterrogation P(P 1,3 | known, b) pour exploiter cette indépendance. IFT615© Froduald Kabanza31

32 Utiliser lindépendance conditionnelle P(P 1,3 | known, b) = unknown P(P 1,3, unknown, known, b) = unknown P(b|P 1,3, known, unknown) P(P 1,3, known, unknown) = frontier other P(b| known, P 1,3, frontier, other) P(P 1,3, known, frontier, other) = frontier other P(b| known, P 1,3, frontier) P(P 1,3, known, frontier, other) = frontier P(b| known, P 1,3, frontier) other P(P 1,3, known, frontier, other) = frontier P(b| known, P 1,3, frontier) other P(P 1,3 ) P(known) P(frontier) P(other) = P(known) P(P 1,3 ) frontier P(b| known, P 1,3, frontier) P(frontier) other P(other) = P(P 1,3 ) frontier P(b| known, P 1,3, frontier) P(frontier) IFT615Froduald Kabanza32

33 Utiliser lindépendance conditionnelle (a) (b) Événements cohérents pour les variables P 2,2 et P 3,1, montrant P(frontier) Pour chaque événement : a) 3 événements avec P 1,3 = vrai, montrant 2 ou 3 fosses. b) 2 événements avec P 1,3 = faux, montrant 1 ou 2 fosses. P(P 1,3 |known, b) = IFT615Froduald Kabanza33

34 Résumé La théorie des probabilités est un formalisme cohérent pour raisonner avec lincertitude Une distribution conjointe spécifie les probabilités pour toute les valeurs des variables aléatoires Pour les domaines dapplication réalistes, on doit trouver une façon de réduire la taille de la distribution conjointe Lindépendance et lindépendance conditionnelles nous fournissent les outils de base pour simplifier les distributions conjointes IFT615Froduald Kabanza34

35 Vous devriez être capable de... À partir dune distribution conjointe ou des distributions conditionnelles et a priori nécessaires : calculer une probabilité conjointe calculer une probabilité marginale déterminer si deux variables sont indépendantes déterminer si deux variables sont conditionnellement indépendantes sachant une troisième IFT615Froduald Kabanza35

36 Probabilités Les assertions probabilistes facilitent la modélisation : des faits et de règles complexes : comparée aux règles de production, lapproche est moins sensible à limpossibilité dénumérer toutes les exceptions, antécédents ou conséquences de règles de lignorance : lapproche est moins sensible à lomission/oubli des faits, de prémisses ou des conditions initiales à un raisonnement IFT615Froduald Kabanza36

37 Probabilités Perspective subjective/bayésienne des probabilités : les probabilités expriment le degré de croyance dun agent dans des propositions/faits »exemple : P(A 25 | aucun accident rapporté) = 0.06 les probabilités ne sont pas des assertions sur ce qui est vrai de façon absolue nexpriment pas forcément des tendances/fréquences dune situation, mais pourraient être apprises automatiquement à partir dexpériences les probabilités des propositions changent avec lacquisition de nouvelles informations »exemple : P(A 25 | aucun accident rapporté, 5h du matin) = 0.15 À lopposée, il y a la perspective objective/fréquentiste des probabilités les probabilités expriment des faits/propriétés sur des objets on peut estimer ces probabilités en observant ces objets à plusieurs reprises les physiciens diront que les phénomènes quantiques sont objectivement probabilistes IFT615Froduald Kabanza37

38 Prise de décisions avec incertitude Supposons que je crois ceci : P(A 25 me permet darriver à temps | …) = 0.04 P(A 90 me permet darriver à temps | …) = 0.70 P(A 120 me permet darriver à temps | …) = 0.95 P(A 240 me permet darriver à temps | …) = P(A 1440 me permet darriver à temps | …)= Quelle action devrais-je choisir? cela dépend de mes préférences : manquer lavion vs. trop dattente La théorie de lutilité est utilisée pour modéliser et inférer avec des préférences une préférence exprime le degré dutilité dune action/situation Théorie de la décision = théorie des probabilités + théorie de lutilité IFT615Froduald Kabanza38

39 Probabilités : traitement général On commence avec un ensemble appelé univers est un événement élémentaire Un modèle de probabilités est une distribution de probabilité P( ) pour chaque élément, telle que 0 P( ) 1 P( ) = 1 Un événement est un sous-ensemble de probabilité dun événement A : P(A)= { A} P( ) Exemple dun dé : = {1,2,3,4,5,6} et P(1)=P(2)=P(3)=P(4)=P(5)=P(6)=1/6 Événement A = « Dé est < 4 » : P(A) = P( =1) P( =2) + P( =3) = 1/6+1/6+1/6 = 1/2 IFT615Froduald Kabanza39

40 Variable aléatoire Une variable aléatoire est une variable décrivant une partie des connaissances incertaines (on la note avec une première lettre majuscule) cest une « fenêtre » sur lunivers Chaque variable a un domaine de valeurs quelle peut prendre Types de variables aléatoires : Booléennes : le domaine est {vrai, faux} »exemple : Carie {vrai, faux} (ai-je la carie?) Discrètes : le domaine est énumérable »Météo {soleil, pluie, nuageux, neige} Continues : le domaine est continu (par exemple, lensemble des réels) »exemple : X = 4.0, PositionX 10.0, Speed 20.5 IFT615Froduald Kabanza40

41 Variable aléatoire On peut voir une variable aléatoire X comme une fonction X( ) donnant une valeur à chaque événement élémentaire possible sauf si nécessaire, on va écrire X plutôt que X( ) P induit une distribution de probabilités pour chaque variable aléatoire X la probabilité quune variable X ait la valeur x i est la somme des probabilités dévénements élémentaires qui sont tels que X( ) = x P(X=x i ) = { : X( )=xi } P( ) Exemple du dé : P( NombreImpaire = vrai) = P(1)+P(3)+P(5) = 1/6+1/6+1/6=1/2 IFT615Froduald Kabanza41

42 Propositions Une proposition est une assertion de ce qui est vrai, c.-à-d., une assertion sur la valeur dune ou plusieurs variables en dautres mots, un événement (ensemble déchantillons ou dévénements atomiques) pour lequel la proposition est vraie »exemple : Carie = vrai (noté parfois carie) ou Carie = faux ( carie) Étant données deux variables booléennes A et B : lévénement a est lensemble déchantillons pour lesquels A = vrai lévénement a est lensemble déchantillons pour lesquels A = faux lévénement a b est lensemble des pour lesquels A=vrai et B=vrai lévénement a b est lensemble des pour lesquels A=vrai ou B=vrai IFT615Froduald Kabanza42

43 Propositions Souvent nous aurons plusieurs variables aléatoires toutes les variables aléatoires tiennent leur valeur dun même échantillon pour des variables distinctes, lespace déchantillonnage est alors le produit cartésien des domaines des variables aléatoires Un événement atomique est donc une spécification complète de létat du « monde » pour lequel un agent est incertain par exemple, si le « monde » de lagent est décrit par seulement deux variables aléatoires booléennes (Carie et MalDeDents), il y a exactement quatre états / événements atomiques possibles : »Carie = faux MalDeDents = faux »Carie = faux MalDeDents = vrai »Carie = vrai MalDeDents = faux »Carie = vrai MalDeDents = vrai »on a donc = {,,, } Les événements atomiques sont exhaustifs et mutuellement exclusifs IFT615Froduald Kabanza43

44 Syntaxe des propositions Élément de base : variable aléatoire Similaire à la logique propositionnelle Variables aléatoires booléenne exemple : Carie = vrai Variables aléatoires discrètes (domaines finis or infinis) exemple : Météo = v, avec v { soleil, pluie, nuageux, neige } Variables aléatoires continues (bornées ou non bornées) exemple : Temp=21.6 (la variable Temp a exactement la valeur 21.6) exemple : Temp < 22.0 (la variable Temp a une valeur inférieure à 22) IFT615Froduald Kabanza44

45 Syntaxe des propositions En général, les propositions élémentaires sont définies en assignant une valeur ou un intervalle de valeurs aux variables exemple : Météo = soleil, Carie = faux (notée aussi carie) Les propositions complexes sont définies par des combinaisons booléennes exemple : (Météo = soleil) (Carie = faux) IFT615Froduald Kabanza45

46 Axiomes de la théorie des probabilités : Axiomes de Kolmogorov Pour toute propositions a, b 0 P(a) 1 P(vrai) = 1 et P(faux) = 0 P(a b) = P(a) + P(b) – P(a b) IFT615Froduald Kabanza46

47 Règle de Bayes et indépendance conditionnelle P(Carie | MalDeDents Croche) = α P(MalDeDents Croche | Carie) P(Carie) = α P(MalDeDents | Carie) P(Croche | Carie) P(Carie) Exemple dun modèle de Bayes simple (naive Bayes classifier) : P(Cause,Effect 1, …,Effect n ) = P(Cause) Π i P(Effect i |Cause) IFT615Froduald Kabanza47 Carie MalDeDentsCroche Cause Effet 1 Effet N


Télécharger ppt "IFT 615 – Intelligence artificielle Raisonnement probabiliste - introduction Froduald Kabanza Département dinformatique Université de Sherbrooke planiart.usherbrooke.ca/kabanza/cours/ift615."

Présentations similaires


Annonces Google