La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.

Présentations similaires


Présentation au sujet: "Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie."— Transcription de la présentation:

1 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE18S3 Psychophysique et analyse des signaux 30/11/2010 http://diard.wordpress.comhttp://diard.wordpress.com Julien.Diard@upmf-grenoble.fr

2 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 2 Bayésien, un mot à la mode ?

3 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 3 Google scholar trend miner

4 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 4 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

5 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Quelques définitions du mot « bayésien » –En Intelligence Artificielle –En robotique –En sciences (physiques) –En sciences cognitives 5

6 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 6

7 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 7

8 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Intelligence Artificielle Construire des systèmes qui –pensent / agissent –comme des humains / rationnellement IA vs. Psychologie –IA ≅ psychologie où on construit le sujet –Psychologie ≅ IA où on tente de deviner comment fonctionne un robot ou programme construit par un autre 8

9 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 9 Intelligence Artificielle 50s-70s –IA Symbolique –Systèmes experts –Blocks World

10 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Prolog : programmation logique Exemple : système expert en généalogie Programme = –Base de faits –Base de règles Requêtes –Inférence logique : principe de Robinson 10 etre_mere(X)-> mere(X,Y); parent(X,Y)-> mere(X,Y); parent(X,Y)-> pere(X,Y); etre_fils(X) -> parent(Y,X); frere_ou_soeur(X,Y) -> pere(P,X) pere(P,Y); soeur_de(X,Y)-> frere_ou_soeur(X,Y) femme(X); grand_pere_de(X,Y)-> pere(X,Z) parent(Z,Y); cousin(X,Y)-> grand_pere_de(Z,X) grand_pere_de(Z,Y); tante(X,Y)-> parent(Z,Y) soeur_de(X,Z); ancetre(X,Y)-> parent(X,Y); /* cas de base, ancetre direct */ ancetre(X,Y)-> parent(Z,Y) ancetre(X,Z); /* ancetre indirect: X est un ancetre du pere de Y */ descendant(X,Y) -> ancetre(Y,X); louistherese gedeon aglae |__________| |_________________| | | | isabellepierre xavier claire |___________________| |________________| | | | | | gaelle axel catherine johan gwenael mere(aglae, xavier) ->; pere(gedeon, xavier) ->; mere(aglae, pierre) ->; pere(gedeon, pierre) ->; mere(therese, isabelle) ->; pere(louis, isabelle) ->;... ancetre(louis, johan);

11 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 11 Problème 1966 –Marvin Minsky (MIT) donne un projet d’été de maîtrise à Gerald Sussman. –Sujet : « la vision par ordinateur » Le monde réel n’est pas le « blocks world » –Modèle nécessairement incomplet –Ex : partie d’échecs (Deep Blue) vs. partie de football

12 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 12 Intelligence Artificielle et monde réel 80s-00s : L’IA symbolique devient la GOFAI –Good old fashioned AI Méthodes numériques –Réseaux de neurones artificiels –Algorithmes génétiques –Modélisation Bayésienne (probabiliste) Transforme l’incomplétude du modèle en incertitude, manipulable mathématiquement Extension de la logique

13 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 13 Modèles de raisonnement humain Raisonnement déductif (logique) –modus ponens A implique B, A est vrai : B est vrai –modus tollens A implique B, B est faux : A est faux Raisonnement plausible –S’il pleut, alors Jean a son parapluie –Jean a son parapluie –Il pleut, vraisemblablement

14 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 14 Représentation et règles de calcul Desiderata –Représentation de degrés de plausibilité par des nombres réels –Correspondance qualitative avec le sens commun –Consistance Si une conclusion peut être atteinte par plusieurs chemins d’inférence, le résultat doit être indépendant du chemin Toutes les évidences sont utilisées pour une inférence Des états de connaissances équivalents amènent à des plausibilités équivalentes  Probabilités  Règle du produit et règle de la somme

15 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 15 Soient A, B, C, des propositions logiques Règle du produit Règle de la somme (de normalisation) Règles de calcul

16 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Règles de calcul Règle du produit  Théorème de Bayes Règle de la somme  Règle de marginalisation 16 Reverend Thomas Bayes (~1702-1761)

17 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Probability Theory As Extended Logic Probabilités « subjectives » –Référence à un état de connaissance d’un sujet P(« il pleut » | Jean), P(« il pleut » | Pierre) Pas de référence à la limite d’occurrence d’un événement (fréquence) Probabilités conditionnelles –P(A | π) et jamais P(A) Probabilités « fréquentistes » –Une probabilité est une propriété physique d’un objet –Axiomatique de Kolmogorov, théorie des ensembles – 17 E.T. Jaynes (1922-1998)

18 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Inférence probabiliste Théorème –Si on connaît la distribution conjointe P(X 1 X 2 … X n | π) –Alors on peut calculer n’importe quelle « question » P(X 1 | [X n = x n ] π) P(X 2 X 4 | [X 3 = x 3 ] π) 18

19 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 19 Preuve

20 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 20 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

21 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 21

22 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 22 Logical Paradigm in robotics Incompleteness (Bessière, 03)

23 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 23 Bayesian Paradigm in robotics =P(M | SDC) P(MS | DC)

24 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 24 Probability as Logic Incompleteness Uncertainty Preliminary Knowledge + Experimental Data = Probabilistic Representation Maximum Entropy Principle Decision Bayesian Inference P(AB|C)=P(A|C)P(B|AC)=P(B|C)P(A|BC) P(A|C)+P(¬A|C) = 1

25 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 25 Programme Description P(X 1 … X n | C) Questions : P(X i … X j | X k … X l C) Spécification Identification Variables Décomposition Formes paramétriques Programmation Bayésienne des Robots (PBR) (Lebeltel, 99)

26 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Sensor Fusion Objective Find the position of a light source Difficulty –No sensor to directly measure the position of a light source. Solution –Model of each sensor –Fusion of the 8 models 26

27 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 27 Model of a Light Sensor –A priori specification Utilization Description Question Program Specification Identification –Variables  Preliminary Knowledge  sensor –Decomposition –Parametrical Forms ThetaL, DistL, Lmi Lmi

28 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 28 Model of a Light Sensor (2) Bayesian Inference: Inverse Problem Description: Question 1: Question 2:

29 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 29 Model of a Light Sensor (3) P( ThetaL | Lmi )P( DistL | Lmi ) Notion of ambiguity

30 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 30 Sensor Fusion Model –No free parameters Utilization Description Question Program Specification Identification –Variables –Decomposition (Conditional Independance Hypothesis) –Parametrical Forms ThetaL, DistL, Lm0, …, Lm7

31 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 31

32 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Classes de modèles probabilistes Réseaux bayésiens Réseaux bayésiens dynamiques Filtres bayésiens Modèles de Markov Cachés Filtres de Kalman Processus de décision markovien (partiellement observable) … 32

33 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 33

34 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Notation probabiliste Soient –M = {m 1, m 2, …} ensemble de modèles –Θ = {θ 1, θ 2, …} paramètres des modèles –Δ = {δ 1, δ 2, …, δ n } données expérimentales –δ i = {x, y} une donnée Un modèle –P(δ i ) = P(y | x) P(x) –P(δ i | θ 1 ) = P(y | x θ 1 ) P(x | θ 1 ) –P(δ i | θ 1 m 1 ) = P(y | x θ 1 m 1 ) P(x | θ 1 m 1 ) 34

35 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Notation probabiliste Un modèle –P(δ i | [Θ = θ 1 ] [M = m 1 ]) Plusieurs modèles –Méta-modèle, modèle hiérarchique – 35

36 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Version « simplifiée » Une seule classe de modèles M = m 1 Un modèle –P(δ i | [Θ = θ 1 ]) Méta-modèle – 36

37 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Sélection de modèle Quel est le modèle le plus probable, au vu des données ? –Question ubiquitaire en sciences ! –Trouver θ qui maximise 37

38 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 38 Si P(  ) = uniforme – Modèle de maximum de vraisemblance Maximum Likelihood (MLE) Si P(  )  uniforme –Modèle = prior  vraisemblance Modèle de maximum a posteriori (MAP) Méthode bayésienne Posterior Prior Vraisemblance

39 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 39 data set set of models set of parameters Sélection de modèle Machine learning Identification de paramètres Active learning Design optimization Distinguabilité des modèles

40 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 40 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

41 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 41

42 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 42 Tel monsieur Jourdain… Un phénomène génère des couples x,y Un modèle –prédit y = F(x), F linéaire, F = ax + b –autorise du « bruit » dans les mesures On observe D = {d x1, …, d xn } Question –Quels sont les paramètres a, b les plus probables ?

43 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 43 Tel monsieur Jourdain…

44 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 44 Tel monsieur Jourdain…

45 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 45 Least square fitting sur Mathworld http://mathworld.wolfram.com

46 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 46 Pour aller plus loin… Inférence dans les cas non-linéaires Moindres carrés Bayésien Espace de modèles –  = {3x+2, 4x 3 -2x 2 +4} Priors hiérarchiques –P(  |  ) Rasoir d’Occam automatique…

47 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Modélisation bayésienne et mesures d’erreursModélisation bayésienne et mesures d’erreurs 47

48 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » Bonus : importance des variables cachées 48

49 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Importance des variables cachées 49

50 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Modélisation d’une série temporelle 50

51 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 P(  y) 51

52 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Variable cachée V1 = {Bleu, Rouge} V1=RV1=B 52

53 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 P(  y | [V1=R]) P(  y | [V1=B]) 53

54 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 V2 = {Bleu, Rouge} [V1=R] [V1=B] P(  y | [V1=R] [V2=R]) P(  y | [V1=R] [V2=B]) P(  y | [V1=B] [V2=R]) P(  y | [V1=B] [V2=B]) 54

55 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Digression : entropie Déf : Exemple : [Shannon, 1948] 55

56 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Exemple 2 : P(X), X = {-1, 0, 1} 56

57 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Variables cachées, connaissance et entropie Théorème : Les variables cachées apportent de l’information P(  y | [V1=B] [V2=B]) P(  y) 57

58 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Prédiction de la prochaine valeur ? P(  y) P(  y | [V1=B] [V2=B]) 58

59 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Pour 2005-2010, [V1=B] et [V2=B] 59

60 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Merci de votre attention ! Questions ?

61 Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Timing Préambule 15 min –En Intelligence Artificielle 30 min Historique –En robotique 30 min Exemple de Programme Bayésien Pause 15 min –En sciences (physiques) Méthodologie de sélection de modèles 30 min Exemples de « bayésien caché »45 min Bonus : importance des variables cachées 15 min 61


Télécharger ppt "Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie."

Présentations similaires


Annonces Google