La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.

Présentations similaires


Présentation au sujet: "Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie."— Transcription de la présentation:

1 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE18S3 Psychophysique et analyse des signaux 15/12/2009 http://diard.wordpress.comhttp://diard.wordpress.com Julien.Diard@upmf-grenoble.fr

2 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 2 Bayésien, un mot à la mode ?

3 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 3 Google scholar trend miner

4 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 4 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

5 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Quelques définitions du mot « bayésien » –En Intelligence Artificielle –En robotique –En sciences (physiques) –En sciences cognitives 5

6 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 6

7 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 7

8 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Intelligence Artificielle Construire des systèmes qui –pensent / agissent –comme des humains / rationnellement IA vs. Psychologie –IA ≅ psychologie où on construit le sujet –Psychologie ≅ IA où on tente de deviner comment fonctionne un robot ou programme construit par un autre 8

9 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 9 Intelligence Artificielle 50s-70s –IA Symbolique –Systèmes experts –Blocks World

10 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Prolog : programmation logique Exemple : système expert en généalogie Programme = –Base de faits –Base de règles Requêtes –Inférence logique : principe de Robinson 10 etre_mere(X)-> mere(X,Y); parent(X,Y)-> mere(X,Y); parent(X,Y)-> pere(X,Y); etre_fils(X) -> parent(Y,X); frere_ou_soeur(X,Y) -> pere(P,X) pere(P,Y); soeur_de(X,Y)-> frere_ou_soeur(X,Y) femme(X); grand_pere_de(X,Y)-> pere(X,Z) parent(Z,Y); cousin(X,Y)-> grand_pere_de(Z,X) grand_pere_de(Z,Y); tante(X,Y)-> parent(Z,Y) soeur_de(X,Z); ancetre(X,Y)-> parent(X,Y); /* cas de base, ancetre direct */ ancetre(X,Y)-> parent(Z,Y) ancetre(X,Z); /* ancetre indirect: X est un ancetre du pere de Y */ descendant(X,Y) -> ancetre(Y,X); louistherese gedeon aglae |__________| |_________________| | | | isabellepierre xavier claire |___________________| |________________| | | | | | gaelle axel catherine johan gwenael mere(aglae, xavier) ->; pere(gedeon, xavier) ->; mere(aglae, pierre) ->; pere(gedeon, pierre) ->; mere(therese, isabelle) ->; pere(louis, isabelle) ->;... ancetre(louis, johan);

11 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 11 Problème 1966 –Marvin Minsky (MIT) donne un projet d’été de maîtrise à Gerald Sussman. –Sujet : « la vision par ordinateur » Le monde réel n’est pas le « blocks world » –Modèle nécessairement incomplet –Ex : partie d’échecs (Deep Blue) vs. partie de football

12 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 12 Intelligence Artificielle et monde réel 80s-00s : L’IA symbolique devient la GOFAI –Good old fashioned AI Méthodes numériques –Réseaux de neurones artificiels –Algorithmes génétiques –Modélisation Bayésienne (probabiliste) Transforme l’incomplétude du modèle en incertitude, manipulable mathématiquement Extension de la logique

13 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 13 Modèles de raisonnement humain Raisonnement déductif (logique) –modus ponens A implique B, A est vrai : B est vrai –modus tollens A implique B, B est faux : A est faux Raisonnement plausible –S’il pleut, alors Jean a son parapluie –Jean a son parapluie –Il pleut, vraisemblablement

14 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 14 Représentation et règles de calcul Desiderata –Représentation de degrés de plausibilité par des nombres réels –Correspondance qualitative avec le sens commun –Consistance Si une conclusion peut être atteinte par plusieurs chemins d’inférence, le résultat doit être indépendant du chemin Toutes les évidences sont utilisées pour une inférence Des états de connaissances équivalents amènent à des plausibilités équivalentes  Probabilités  Règle du produit et règle de la somme

15 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 15 Soient A, B, C, des propositions logiques Règle du produit (de Bayes) Règle de la somme (de normalisation) Règles de calcul Reverend Thomas Bayes (~1702-1761)

16 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Probability Theory As Extended Logic Probabilités « subjectives » –Référence à un état de connaissance d’un sujet P(« il pleut » | Jean), P(« il pleut » | Pierre) Pas de référence à la limite d’occurrence d’un événement (fréquence) Probabilités conditionnelles –P(A | π) et jamais P(A) Probabilités « fréquentistes » –Une probabilité est une propriété physique d’un objet –Axiomatique de Kolmogorov, théorie des ensembles – 16 E.T. Jaynes (1922-1998)

17 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Inférence probabiliste Théorème –Si on connaît la distribution conjointe P(X 1 X 2 … X n | π) –Alors on peut calculer n’importe quelle « question » P(X 1 | [X n = x n ] π) P(X 2 X 4 | [X 3 = x 3 ] π) 17

18 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 18 Preuve

19 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 19 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

20 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 20

21 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 21 Logical Paradigm in robotics Incompleteness (Bessière, 03)

22 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 22 Bayesian Paradigm in robotics =P(M | SDC) P(MS | DC)

23 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 23 Probability as Logic Incompleteness Uncertainty Preliminary Knowledge + Experimental Data = Probabilistic Representation Maximum Entropy Principle Decision Bayesian Inference P(AB|C)=P(A|C)P(B|AC)=P(B|C)P(A|BC) P(A|C)+P(¬A|C) = 1

24 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 24 Programme Description P(X 1 … X n | C) Questions : P(X i … X j | X k … X l C) Spécification Identification Variables Décomposition Formes paramétriques Programmation Bayésienne des Robots (PBR) (Lebeltel, 99)

25 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Sensor Fusion Objective Find the position of a light source Difficulty –No sensor to directly measure the position of a light source. Solution –Model of each sensor –Fusion of the 8 models 25

26 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 26 Model of a Light Sensor –A priori specification Utilization Description Question Program Specification Identification –Variables  Preliminary Knowledge  sensor –Decomposition –Parametrical Forms ThetaL, DistL, Lmi Lmi

27 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 27 Model of a Light Sensor (2) Bayesian Inference: Inverse Problem Description: Question 1: Question 2:

28 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 28 Model of a Light Sensor (3) P( ThetaL | Lmi )P( DistL | Lmi ) Notion of ambiguity

29 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 29 Sensor Fusion Model –No free parameters Utilization Description Question Program Specification Identification –Variables –Decomposition (Conditional Independance Hypothesis) –Parametrical Forms ThetaL, DistL, Lm0, …, Lm7

30 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 30

31 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 31

32 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Notation probabiliste Soient –M = {m 1, m 2, …} ensemble de modèles –Θ = {θ 1, θ 2, …} paramètres des modèles –Δ = {δ 1, δ 2, …, δ n } données expérimentales –δ i = {x, y} une donnée Un modèle –P(δ i ) = P(y | x) P(x) –P(δ i | θ 1 ) = P(y | x θ 1 ) P(x | θ 1 ) –P(δ i | θ 1 m 1 ) = P(y | x θ 1 m 1 ) P(x | θ 1 m 1 ) 32

33 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Notation probabiliste Un modèle –P(δ i | [Θ = θ 1 ] [M = m 1 ]) Plusieurs modèles –Méta-modèle, modèle hiérarchique – 33

34 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Version « simplifiée » Une seule classe de modèles M = m 1 Un modèle –P(δ i | [Θ = θ 1 ]) Méta-modèle – 34

35 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Sélection de modèle Quel est le modèle le plus probable, au vu des données ? –Question ubiquitaire en sciences ! –Trouver θ qui maximise 35

36 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 36 Si P(  ) = uniforme – Modèle de maximum de vraisemblance Maximum Likelihood (MLE) Si P(  )  uniforme –Modèle = prior  vraisemblance Modèle de maximum a posteriori (MAP) Méthode bayésienne Posterior Prior Vraisemblance

37 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 37 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

38 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 38

39 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 39 Tel monsieur Jourdain… Un phénomène génère des couples x,y Un modèle –prédit y = F(x), F linéaire, F = ax + b –autorise du « bruit » dans les mesures On observe D = {d x1, …, d xn } Question –Quels sont les paramètres a, b les plus probables ?

40 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 40 Tel monsieur Jourdain…

41 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 41 Tel monsieur Jourdain…

42 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 42 Least square fitting sur Mathworld http://mathworld.wolfram.com

43 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 43 Pour aller plus loin… Inférence dans les cas non-linéaires Moindres carrés Bayésien Espace de modèles –  = {3x+2, 4x 3 -2x 2 +4} Priors hiérarchiques –P(  |  ) Rasoir d’Occam automatique…

44 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Modélisation bayésienne et mesures d’erreursModélisation bayésienne et mesures d’erreurs 44

45 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » Bonus : importance des variables cachées 45

46 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Importance des variables cachées 46

47 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Modélisation d’une série temporelle 47

48 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 P(  y) 48

49 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Variable cachée V1 = {Bleu, Rouge} V1=RV1=B 49

50 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 P(  y | [V1=R]) P(  y | [V1=B]) 50

51 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 V2 = {Bleu, Rouge} [V1=R] [V1=B] P(  y | [V1=R] [V2=R]) P(  y | [V1=R] [V2=B]) P(  y | [V1=B] [V2=R]) P(  y | [V1=B] [V2=B]) 51

52 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Digression : entropie Déf : Exemple : [Shannon, 1948] 52

53 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Exemple 2 : P(X), X = {-1, 0, 1} 53

54 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Variables cachées, connaissance et entropie Théorème : Les variables cachées apportent de l’information P(  y | [V1=B] [V2=B]) P(  y) 54

55 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Prédiction de la prochaine valeur ? P(  y) P(  y | [V1=B] [V2=B]) 55

56 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Pour 2007, [V1=B] et [V2=B] 56

57 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Merci de votre attention ! Questions ?

58 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Timing Préambule 15 min –En Intelligence Artificielle 30 min Historique –En robotique 30 min Exemple de Programme Bayésien Pause 15 min –En sciences (physiques) Méthodologie de sélection de modèles 30 min Exemples de « bayésien caché »45 min Bonus : importance des variables cachées 15 min 58


Télécharger ppt "Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie."

Présentations similaires


Annonces Google