Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
Publié parGabriel St-Pierre Modifié depuis plus de 9 années
1
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE18S3 Psychophysique et analyse des signaux 30/11/2010 http://diard.wordpress.comhttp://diard.wordpress.com Julien.Diard@upmf-grenoble.fr
2
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 2 Bayésien, un mot à la mode ?
3
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 3 Google scholar trend miner
4
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 4 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier
5
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Quelques définitions du mot « bayésien » –En Intelligence Artificielle –En robotique –En sciences (physiques) –En sciences cognitives 5
6
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 6
7
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 7
8
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Intelligence Artificielle Construire des systèmes qui –pensent / agissent –comme des humains / rationnellement IA vs. Psychologie –IA ≅ psychologie où on construit le sujet –Psychologie ≅ IA où on tente de deviner comment fonctionne un robot ou programme construit par un autre 8
9
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 9 Intelligence Artificielle 50s-70s –IA Symbolique –Systèmes experts –Blocks World
10
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Prolog : programmation logique Exemple : système expert en généalogie Programme = –Base de faits –Base de règles Requêtes –Inférence logique : principe de Robinson 10 etre_mere(X)-> mere(X,Y); parent(X,Y)-> mere(X,Y); parent(X,Y)-> pere(X,Y); etre_fils(X) -> parent(Y,X); frere_ou_soeur(X,Y) -> pere(P,X) pere(P,Y); soeur_de(X,Y)-> frere_ou_soeur(X,Y) femme(X); grand_pere_de(X,Y)-> pere(X,Z) parent(Z,Y); cousin(X,Y)-> grand_pere_de(Z,X) grand_pere_de(Z,Y); tante(X,Y)-> parent(Z,Y) soeur_de(X,Z); ancetre(X,Y)-> parent(X,Y); /* cas de base, ancetre direct */ ancetre(X,Y)-> parent(Z,Y) ancetre(X,Z); /* ancetre indirect: X est un ancetre du pere de Y */ descendant(X,Y) -> ancetre(Y,X); louistherese gedeon aglae |__________| |_________________| | | | isabellepierre xavier claire |___________________| |________________| | | | | | gaelle axel catherine johan gwenael mere(aglae, xavier) ->; pere(gedeon, xavier) ->; mere(aglae, pierre) ->; pere(gedeon, pierre) ->; mere(therese, isabelle) ->; pere(louis, isabelle) ->;... ancetre(louis, johan);
11
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 11 Problème 1966 –Marvin Minsky (MIT) donne un projet d’été de maîtrise à Gerald Sussman. –Sujet : « la vision par ordinateur » Le monde réel n’est pas le « blocks world » –Modèle nécessairement incomplet –Ex : partie d’échecs (Deep Blue) vs. partie de football
12
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 12 Intelligence Artificielle et monde réel 80s-00s : L’IA symbolique devient la GOFAI –Good old fashioned AI Méthodes numériques –Réseaux de neurones artificiels –Algorithmes génétiques –Modélisation Bayésienne (probabiliste) Transforme l’incomplétude du modèle en incertitude, manipulable mathématiquement Extension de la logique
13
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 13 Modèles de raisonnement humain Raisonnement déductif (logique) –modus ponens A implique B, A est vrai : B est vrai –modus tollens A implique B, B est faux : A est faux Raisonnement plausible –S’il pleut, alors Jean a son parapluie –Jean a son parapluie –Il pleut, vraisemblablement
14
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 14 Représentation et règles de calcul Desiderata –Représentation de degrés de plausibilité par des nombres réels –Correspondance qualitative avec le sens commun –Consistance Si une conclusion peut être atteinte par plusieurs chemins d’inférence, le résultat doit être indépendant du chemin Toutes les évidences sont utilisées pour une inférence Des états de connaissances équivalents amènent à des plausibilités équivalentes Probabilités Règle du produit et règle de la somme
15
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 15 Soient A, B, C, des propositions logiques Règle du produit Règle de la somme (de normalisation) Règles de calcul
16
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Règles de calcul Règle du produit Théorème de Bayes Règle de la somme Règle de marginalisation 16 Reverend Thomas Bayes (~1702-1761)
17
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Probability Theory As Extended Logic Probabilités « subjectives » –Référence à un état de connaissance d’un sujet P(« il pleut » | Jean), P(« il pleut » | Pierre) Pas de référence à la limite d’occurrence d’un événement (fréquence) Probabilités conditionnelles –P(A | π) et jamais P(A) Probabilités « fréquentistes » –Une probabilité est une propriété physique d’un objet –Axiomatique de Kolmogorov, théorie des ensembles – 17 E.T. Jaynes (1922-1998)
18
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Inférence probabiliste Théorème –Si on connaît la distribution conjointe P(X 1 X 2 … X n | π) –Alors on peut calculer n’importe quelle « question » P(X 1 | [X n = x n ] π) P(X 2 X 4 | [X 3 = x 3 ] π) 18
19
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 19 Preuve
20
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 20 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier
21
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 21
22
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 22 Logical Paradigm in robotics Incompleteness (Bessière, 03)
23
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 23 Bayesian Paradigm in robotics =P(M | SDC) P(MS | DC)
24
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 24 Probability as Logic Incompleteness Uncertainty Preliminary Knowledge + Experimental Data = Probabilistic Representation Maximum Entropy Principle Decision Bayesian Inference P(AB|C)=P(A|C)P(B|AC)=P(B|C)P(A|BC) P(A|C)+P(¬A|C) = 1
25
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 25 Programme Description P(X 1 … X n | C) Questions : P(X i … X j | X k … X l C) Spécification Identification Variables Décomposition Formes paramétriques Programmation Bayésienne des Robots (PBR) (Lebeltel, 99)
26
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Sensor Fusion Objective Find the position of a light source Difficulty –No sensor to directly measure the position of a light source. Solution –Model of each sensor –Fusion of the 8 models 26
27
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 27 Model of a Light Sensor –A priori specification Utilization Description Question Program Specification Identification –Variables Preliminary Knowledge sensor –Decomposition –Parametrical Forms ThetaL, DistL, Lmi Lmi
28
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 28 Model of a Light Sensor (2) Bayesian Inference: Inverse Problem Description: Question 1: Question 2:
29
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 29 Model of a Light Sensor (3) P( ThetaL | Lmi )P( DistL | Lmi ) Notion of ambiguity
30
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 30 Sensor Fusion Model –No free parameters Utilization Description Question Program Specification Identification –Variables –Decomposition (Conditional Independance Hypothesis) –Parametrical Forms ThetaL, DistL, Lm0, …, Lm7
31
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 31
32
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Classes de modèles probabilistes Réseaux bayésiens Réseaux bayésiens dynamiques Filtres bayésiens Modèles de Markov Cachés Filtres de Kalman Processus de décision markovien (partiellement observable) … 32
33
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 33
34
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Notation probabiliste Soient –M = {m 1, m 2, …} ensemble de modèles –Θ = {θ 1, θ 2, …} paramètres des modèles –Δ = {δ 1, δ 2, …, δ n } données expérimentales –δ i = {x, y} une donnée Un modèle –P(δ i ) = P(y | x) P(x) –P(δ i | θ 1 ) = P(y | x θ 1 ) P(x | θ 1 ) –P(δ i | θ 1 m 1 ) = P(y | x θ 1 m 1 ) P(x | θ 1 m 1 ) 34
35
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Notation probabiliste Un modèle –P(δ i | [Θ = θ 1 ] [M = m 1 ]) Plusieurs modèles –Méta-modèle, modèle hiérarchique – 35
36
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Version « simplifiée » Une seule classe de modèles M = m 1 Un modèle –P(δ i | [Θ = θ 1 ]) Méta-modèle – 36
37
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Sélection de modèle Quel est le modèle le plus probable, au vu des données ? –Question ubiquitaire en sciences ! –Trouver θ qui maximise 37
38
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 38 Si P( ) = uniforme – Modèle de maximum de vraisemblance Maximum Likelihood (MLE) Si P( ) uniforme –Modèle = prior vraisemblance Modèle de maximum a posteriori (MAP) Méthode bayésienne Posterior Prior Vraisemblance
39
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 39 data set set of models set of parameters Sélection de modèle Machine learning Identification de paramètres Active learning Design optimization Distinguabilité des modèles
40
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 40 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier
41
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 41
42
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 42 Tel monsieur Jourdain… Un phénomène génère des couples x,y Un modèle –prédit y = F(x), F linéaire, F = ax + b –autorise du « bruit » dans les mesures On observe D = {d x1, …, d xn } Question –Quels sont les paramètres a, b les plus probables ?
43
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 43 Tel monsieur Jourdain…
44
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 44 Tel monsieur Jourdain…
45
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 45 Least square fitting sur Mathworld http://mathworld.wolfram.com
46
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 46 Pour aller plus loin… Inférence dans les cas non-linéaires Moindres carrés Bayésien Espace de modèles – = {3x+2, 4x 3 -2x 2 +4} Priors hiérarchiques –P( | ) Rasoir d’Occam automatique…
47
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Modélisation bayésienne et mesures d’erreursModélisation bayésienne et mesures d’erreurs 47
48
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » Bonus : importance des variables cachées 48
49
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Importance des variables cachées 49
50
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Modélisation d’une série temporelle 50
51
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 P( y) 51
52
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Variable cachée V1 = {Bleu, Rouge} V1=RV1=B 52
53
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 P( y | [V1=R]) P( y | [V1=B]) 53
54
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 V2 = {Bleu, Rouge} [V1=R] [V1=B] P( y | [V1=R] [V2=R]) P( y | [V1=R] [V2=B]) P( y | [V1=B] [V2=R]) P( y | [V1=B] [V2=B]) 54
55
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Digression : entropie Déf : Exemple : [Shannon, 1948] 55
56
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Exemple 2 : P(X), X = {-1, 0, 1} 56
57
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Variables cachées, connaissance et entropie Théorème : Les variables cachées apportent de l’information P( y | [V1=B] [V2=B]) P( y) 57
58
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Prédiction de la prochaine valeur ? P( y) P( y | [V1=B] [V2=B]) 58
59
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Pour 2005-2010, [V1=B] et [V2=B] 59
60
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Merci de votre attention ! Questions ?
61
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Timing Préambule 15 min –En Intelligence Artificielle 30 min Historique –En robotique 30 min Exemple de Programme Bayésien Pause 15 min –En sciences (physiques) Méthodologie de sélection de modèles 30 min Exemples de « bayésien caché »45 min Bonus : importance des variables cachées 15 min 61
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.