La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Introduction à la modélisation bayésienne

Présentations similaires


Présentation au sujet: "Introduction à la modélisation bayésienne"— Transcription de la présentation:

1 Introduction à la modélisation bayésienne
Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE18S3 Psychophysique et analyse des signaux 13/11/2012

2 Pour aller plus loin… Reviews, introductions, …
Numéro spécial Trends in Cognitive Sciences 2006, 10(7) l’édito : N. Chater, J. B. Tenenbaum, and A. Yuille. Probabilistic models of cognition: Conceptual foundations. Trends in Cognitive Sciences, 10(7):287–291, 2006. F. Colas, J. Diard, and P. Bessière. Common bayesian models for common cognitive issues. Acta Biotheoretica, 58(2-3):191–216, 2010. ambiguities, fusion, multimodality, conflicts, modularity, hierarchies and loops N. Chater, M. Oaksford, U. Hahn, and E. Heit. Bayesian models of cognition. WIREs Cognitive Science, 1(6), 2010. plus « cognitif » : categorization, learning and causality, language processing, inductive and deductive reasoning, argumentation R.A. Jacobs and J.K. Kruschke. Bayesian learning theory applied to human cognition. WIREs Cognitive Science, 2010.

3 Pour aller plus loin… Débat sur la modélisation bayésienne en sciences cognitives M. Jones and B. Love. Bayesian fundamentalism or enlightenment? on the explanatory status and theoretical contributions of bayesian models of cognition. Behavioral and Brain Sciences, 34:169–231, 2011. Article cible BBS, suivi de commentaires J. S. Bowers and C. J. Davis. Bayesian just-so stories in psychology and neuroscience. Psychological Bulletin, 138(3):389–414, 2012. T. L. Griffiths, N. Chater, D. Norris, and A. Pouget. How the bayesians got their beliefs (and what those beliefs actually are): Comment on bowers and davis (2012). Psychological Bulletin, 138(3):415–422, 2012. J. S. Bowers and C. J. Davis. Is that what bayesians believe? reply to Griffiths, Chater, Norris, and Pouget (2012). Psychological Bulletin, 138(3):423–426, 2012. T. L. Griffiths, N. Chater, C. Kemp, A. Perfors, and J. B. Tenenbaum. Probabilistic models of cognition: exploring representations and inductive biases. Trends in Cognitive Sciences, 14:357–364, 2010. J. L. McClelland, M. M. Botvinick, D. C. Noelle, D. C. Plaut, T. T. Rogers, M. S. Seidenberg, and L. B. Smith. Letting structure emerge: connectionist and dynamical systems approaches to cognition. Trends in Cognitive Sciences, 14:348–356, 2010. Et les réponses suivantes…

4 Pour aller plus loin… Modèles sensori-moteurs en robotique
O. Lebeltel, P. Bessière, J. Diard, and E. Mazer. Bayesian robot programming. Autonomous Robots, 16(1):49–79, 2004. Modèles sensoriels et moteurs en sciences du vivant D. Kersten, P. Mamassian, and A. Yuille. Object perception as bayesian inference. annu Rev Psychol, 55:271–304, 2004. D. M. Wolpert. Probabilistic models in human sensorimotor control. Human Movement Science, 26:511–524, 2007. & cf. cours 2 Statistiques bayésiennes J. K. Kruschke. Bayesian data analysis. WIREs Cognitive Science, 1:658–676, 2010. J. K. Kruschke. What to believe: Bayesian methods for data analysis. Trends in Cognitive Science, 14:293–300, 2010.

5 Pour aller plus loin… Cours de Stanislas Dehaene (Chaire de psychologie cognitive expérimentale au Collège de France) : « Le cerveau statisticien : la révolution Bayésienne en Sciences Cognitives » : « Le bébé statisticien : les théories Bayésiennes de l’apprentissage » Science Publique sur France Culture 09/11/2012 : « Une formule mathématique universelle existe-t-elle ? » (émission avec Pierre Bessière)

6 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Pierre Dangauthier

7 Quelques définitions du mot « bayésien »
En Intelligence Artificielle En robotique En sciences (physiques), en statistiques En sciences cognitives

8 Plan Introduction à la modélisation bayésienne
En Intelligence Artificielle Historique En robotique Exemple de Programme Bayésien En sciences (physiques), en statistiques Méthodologie de sélection de modèles Exemples de « bayésien caché » En sciences cognitives Modélisation de la perception et de l’action

9 Plan Introduction à la modélisation bayésienne
En Intelligence Artificielle Historique En robotique Exemple de Programme Bayésien En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » En sciences cognitives Modélisation de la perception et de l’action

10 Intelligence Artificielle
Construire des systèmes qui pensent / agissent comme des humains / rationnellement Exemples « Agissent comme des humains » Test de Turing « Pensent rationnellement » Raisonnement logique (Russell & Norvig, 2003)

11 Intelligence Artificielle
Construire des systèmes qui pensent / agissent comme des humains / rationnellement IA vs. Psychologie IA ≅ psychologie où on construit le sujet Psychologie ≅ IA où on tente de deviner comment fonctionne un robot ou un programme construit par quelqu’un d’autre

12 Intelligence Artificielle
Construire des systèmes qui pensent / agissent comme des humains / rationnellement IA vs. Psychologie Distinctions similaires en psychologie Cognition symbolique / cognition située Implementation / algorithmique / computationel (hiérarchie de David Marr)

13 Intelligence Artificielle
50s-70s IA Symbolique Systèmes experts Blocks World

14 Prolog : programmation logique
louis therese gedeon aglae |__________| |_________________| | | | isabelle pierre xavier claire |___________________| |________________| | | | | | gaelle axel catherine johan gwenael mere(aglae, xavier) ->; pere(gedeon, xavier) ->; mere(aglae, pierre) ->; pere(gedeon, pierre) ->; mere(therese, isabelle) ->; pere(louis, isabelle) ->; ... Exemple : système expert en généalogie Programme = Base de faits Base de règles Requêtes Inférence logique : principe de Robinson etre_mere(X) -> mere(X,Y); parent(X,Y) -> mere(X,Y); parent(X,Y) -> pere(X,Y); etre_fils(X) -> parent(Y,X); frere_ou_soeur(X,Y) -> pere(P,X) pere(P,Y); soeur_de(X,Y) -> frere_ou_soeur(X,Y) femme(X); grand_pere_de(X,Y) -> pere(X,Z) parent(Z,Y); cousin(X,Y) -> grand_pere_de(Z,X) grand_pere_de(Z,Y); tante(X,Y) -> parent(Z,Y) soeur_de(X,Z); ancetre(X,Y) -> parent(X,Y); /* cas de base, ancetre direct */ ancetre(X,Y) -> parent(Z,Y) ancetre(X,Z); /* ancetre indirect: X est un ancetre du pere de Y */ descendant(X,Y) -> ancetre(Y,X); ancetre(louis, johan);

15 Problème 1966 Le monde réel n’est pas le « blocks world »
Marvin Minsky (MIT) donne un projet d’été de maîtrise à Gerald Sussman. Sujet : « la vision par ordinateur » Le monde réel n’est pas le « blocks world » Modèle nécessairement incomplet Ex : partie d’échecs (Deep Blue) vs. partie de football

16 Intelligence Artificielle et monde réel
80s-00s : L’IA symbolique devient la GOFAI Good old fashioned AI Méthodes numériques Réseaux de neurones artificiels Algorithmes génétiques Logique floue Modélisation Bayésienne (probabiliste) Transforme l’incomplétude du modèle en incertitude, manipulable mathématiquement Extension de la logique

17 Modèles de raisonnement humain
Raisonnement déductif (logique) modus ponens A implique B, A est vrai : B est vrai modus tollens A implique B, B est faux : A est faux Raisonnement plausible S’il pleut, alors Jean a son parapluie Jean a son parapluie Il pleut, vraisemblablement

18 Représentation et règles de calcul
Desiderata Représentation de degrés de plausibilité par des nombres réels Correspondance qualitative avec le sens commun Consistance Si une conclusion peut être atteinte par plusieurs chemins d’inférence, le résultat doit être indépendant du chemin Toutes les évidences sont utilisées pour une inférence Des états de connaissances équivalents amènent à des plausibilités équivalentes Probabilités Règle du produit et règle de la somme th. de Cox (Jaynes, 03)

19 Règles de calcul Soient A, B, C, des propositions logiques
Règle du produit Règle de la somme (de normalisation)

20 Règles de calcul Règle du produit  Théorème de Bayes
Règle de la somme  Règle de marginalisation Reverend Thomas Bayes (~ )

21 Règles de calcul Concepts mathématiques élémentaires
Produit, somme (et division)

22 Probability Theory As Extended Logic
Probabilités « fréquentistes » Une probabilité est une propriété physique d’un objet Axiomatique de Kolmogorov, théorie des ensembles Statistiques classiques Population parente, etc. Probabilités « subjectives » Référence à un état de connaissance d’un sujet P(« il pleut » | Jean), P(« il pleut » | Pierre) Pas de référence à la limite d’occurrence d’un événement (fréquence) Probabilités conditionnelles P(A | π) et jamais P(A) Statistiques bayésiennes E.T. Jaynes ( )

23 Inférence probabiliste
Théorème Si on connaît la distribution conjointe P(X1 X2 … Xn | π) Alors on peut calculer n’importe quelle « question » P(X1 | [Xn = xn] π) P(X2 X4 | [X3 = x3] π)

24 Preuve ANOTHER ADVANTAGE IS THAT IT HAS NOTHING TO DO WITH GRAPHS, INFERENCE MAY BE SEEN AS PURE ALGEBRA

25 Exemple Raisonnement plausible
S’il pleut, alors Jean a son parapluie Jean a son parapluie Il pleut, vraisemblablement Peut-on capturer ce raisonnement en probabilités ?

26 Exemple A = {il pleut, il ne pleut pas}
B = {Jean a son parapluie, Jean n’a pas son parapluie} P(B A) = P(A) P(B | A) P(A) P([A=il pleut]) = 0,4 P([A=il ne pleut pas]) = 1 - 0,4 = 0,6 P(B | A) Quizz : quel objet mathématique ?

27 Exemple P(B A) = P(A) P(B | A) P(B | A) P(B | A) A=il pleut
A=il ne pleut pas B=Jean n’a pas son parapluie 0,05 0,9 B=Jean a son parapluie 0,95 0,1 1

28 Exemple Probabilité qu’il pleuve ?
P([A = il pleut]) = 0,4 Probabilité qu’il pleuve, sachant que Jean a son parapluie ? P(A | B = Jean a son parapluie) = P(B | A) P(A) / P(B) = P(B | A) P(A) / (ΣA P(B A)) P([A = il pleut] | [B = Jean a son parapluie]) = 0,95*0,4 / (0,95*0,4 + 0,1*0,6) = 0,86

29 Exemple Tables de probabilités conditionnelles
Autres distributions de probabilités démo

30 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

31 Plan Introduction à la modélisation bayésienne
En Intelligence Artificielle Historique En robotique Exemple de Programme Bayésien En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » En sciences cognitives Modélisation de la perception et de l’action

32 Logical Paradigm in robotics
Incompleteness THESE HIDDEN VARIABLES ARE THE MAIN DIFFICULTY OF ROBOTICS (Bessière, 03)

33 Bayesian Paradigm in robotics
=P(M | SDC) P(MS | DC) THE BAYESIAN PARDIGMIN IN ROBOTICS IS AN ALTERNATIVE TO THE LOGICAL APPROACH PRELIMINARY KNOWLEDGE = PROBABILISTIC CANVAS SHAPE OF THE CANVAS OBTAIN BY LEARNING 2 SOURCES SECOND SOURCE INFLUENCED BY HIDDEN VARIABLES PROBABILISTIC INTERNAL REPRESENTATION TAKE INTO ACCOUNT THESE HIDDEN VARIABLES

34 Probability as Logic Incompleteness Uncertainty Decision
Preliminary Knowledge + Experimental Data = Probabilistic Representation Maximum Entropy Principle Decision Bayesian Inference P(AB|C)=P(A|C)P(B|AC)=P(B|C)P(A|BC) P(A|C)+P(¬A|C) = 1 THIS APPROACH HAS BEEN CLEARLY DESCRIBED BY JAYNES LEARNING TRANSFORMS THE INCOMPLETNESS IN UNCERTAINTY 2 EXTREME CASES PROBABILISTIC REASONING

35 Programmation Bayésienne des Robots (PBR)
Variables Décomposition Formes paramétriques Spécification Description P(X1 … Xn | C) Programme Identification Questions : P(Xi … Xj | Xk … Xl C) (Lebeltel, 99)

36 Sensor Fusion Objective Difficulty Solution
Find the position of a light source Difficulty No sensor to directly measure the position of a light source. Solution Model of each sensor Fusion of the 8 models

37 Model of a Light Sensor Description Program Question Utilization
Specification Lmi Variables ThetaL, DistL, Lmi Description Question Decomposition Parametrical Forms Program  Preliminary Knowledge psensor Identification A priori specification Utilization

38 Model of a Light Sensor (2)
Bayesian Inference: Inverse Problem Description: Question 1: Question 2:

39 Model of a Light Sensor (3)
P(ThetaL | Lmi ) P(DistL | Lmi ) Notion of ambiguity

40 Sensor Fusion Model Description Program Question Utilization
Specification Variables ThetaL, DistL, Lm0, …, Lm7 Description Question Decomposition (Conditional Independance Hypothesis) Parametrical Forms Program Identification No free parameters Utilization

41

42 Classes de modèles probabilistes
Réseaux bayésiens Réseaux bayésiens dynamiques Filtres bayésiens Modèles de Markov Cachés Filtres de Kalman Processus de décision markovien (partiellement observable) (Diard, 2003)

43 Plan Introduction à la modélisation bayésienne
En Intelligence Artificielle Historique En robotique Exemple de Programme Bayésien En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » En sciences cognitives Modélisation de la perception et de l’action

44 Notation probabiliste
Soient Θ = {θ1, θ2, …} paramètres des modèles Δ = {δ1, δ2, …, δn} données expérimentales δi = {x, y} une donnée x var indépendante contrôlée y var dépendante Un modèle P(δi) = P(y | x) P(x) P(δi | θ1) = P(y | x θ1) P(x | θ1)

45 Notation probabiliste
Soient Θ = {θ1, θ2, …} paramètres des modèles Δ = {δ1, δ2, …, δn} données expérimentales δi = {x, y} une donnée Méta-modèle

46 Sélection de modèle Quel est le modèle le plus probable, au vu des données ? Question ubiquitaire en sciences ! Trouver θ qui maximise

47 Si P() = uniforme Si P()  uniforme Modèle = prior  vraisemblance
Posterior Prior Vraisemblance Si P() = uniforme Modèle de maximum de vraisemblance Maximum Likelihood (MLE) Si P()  uniforme Modèle = prior  vraisemblance Modèle de maximum a posteriori (MAP) Méthode bayésienne

48

49 data set set of models set of parameters Sélection de modèle Machine learning Identification de paramètres Active learning Design optimization Distinguabilité des modèles

50 Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

51 Merci de votre attention !
Questions ?


Télécharger ppt "Introduction à la modélisation bayésienne"

Présentations similaires


Annonces Google