Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.

Slides:



Advertisements
Présentations similaires
Sytèmes Experts (Vus à travers Prolog).
Advertisements

Champs de Markov en Vision par Ordinateur
Apprentissage relationnel Apprentissage Data Mining ILP.
Structures de données et complexité
RECONNAISSANCE DE FORMES
Les K plus proches voisins
Diagram-Based Techniques
Etude de la dynamique des groupes et des objets intermédiaires de conception, en s’appuyant sur la dynamique de l’émergence des état problèmes Reza MOVAHEDKHAH,
1 Vers la découverte de nouvelles modalités sensori-motrices. Encadrants : Pierre Bessière Anne Spalanzani Pierre Dangauthier DEA I.V.R. 24 Juin 2003 Sélection.
Séminaire LISC 29/06/01 Diffusion de l innovation Etudes sociologiques Modèles à seuil Réseaux sociaux Automates cellulaires, en réseaux.
Les méthodes formelles en ingénierie des connaissances Damien Lhomme-Desages Jérémie Barlet.
Maria-João Rendas CNRS – I3S Novembre 2006
Résumé cours précédent
Comportements hybrides
Introduction à la modélisation bayésienne
Le filtrage au cours des âges Du filtre de Kalman au filtrage particulaire André Monin.
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Cours 5 Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE Cognition bayésienne 18/01/
Programmation logique Logique des prédicats du premier ordre
Introduction à la modélisation bayésienne
Fusion de données : Vision probabiliste de la fusion
Décodage des informations
Les probabilités ... la valeur d'un hasard est égale à son degré d'improbabilité. Milan Kundera.
Diagnostic des Systèmes à Evénements Discrets
DEA Perception et Traitement de l’Information
Rappels de logique des prédicats du 1er ordre
1 Evaluer le risque en situation de changement climatique : mission impossible ? SAMA, 19 Janvier 2007 Eric Parent 1, Jacques Bernier 1 et Vincent Fortin.
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Objectifs Chapitre 8: Mesure en psychologie
Comparaison et sélection Bayésienne de modèles
GPA750 – Gestion de Projets
Sensibilisation a la modelisation
Filtrage de Kalman et aperçu probabiliste
Réseaux bayésiens: Inférence
Intelligence Artificielle et plagiarisme constructif
Présenté par : Attia Hamza Merzouk Abdelkrim 2003/2004
Vers un nouvel empirisme: l’ancien et le nouvel empirisme John Goldsmith Université de Chicago CNRS MoDyCo.
Algorithmique et programmation (1)‏
Frédéric Amblard*, Guillaume Deffuant**,
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
Classification : objectifs
D.E ZEGOUR Ecole Supérieure d’Informatique. Problèmes de décision Concepts de base Expressions régulières Notation particulière pour exprimer certaines.
Le langage Racket (Lisp)
Sureté de fonctionnement dans les WNCS
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
Fusion de paramètres en classification Parole/Musique Julie Mauclair – Equipe Parole Julien Pinquier – Equipe SAMoVA.
Système de regression neuro-flou pour prédire les apports non contrôlés dans les bassins versants de centrales hydro-électriques Mounir Boukadoum, Hakim.
TIPE Les dames chinoises
Intelligence artificielle
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 13 Introduction à l’intelligence artificielle dans les environnements de jeux 3D –Notions d’agents.
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.
Thibault ROY & Olivier SAGIT Exposé du mercredi 17 décembre 2003 Apprentissage Interactif Apprentissage avec SpamAssassin UFR de Sciences Département d’Informatique.
Décision incertaine et logistique : Grille typologique
Hiver 2004SEG2501 Chapître 41 Chapître 4 SDL – structure d’un système et son comportement.
Knowledge discovery in Databases (KDD)
Julien Diard — LPNC-CNRS Cours M2R Sciences Cognitives, « Cognition bayésienne » — 2009 Comparaison et sélection Bayésienne de modèles Julien Diard Laboratoire.
Introduction à la modélisation bayésienne
Méthode des moindres carrés (1)
GPA-779 Application des systèmes experts et des réseaux de neurones.
Modélisation bayésienne de la perception et de l’action
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.
Neurogéométrie & Contours subjectifs
Introduction à la modélisation bayésienne
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Graphisme par ordinateur
Concepts avancés en mathématiques et informatique appliquées
Jean Marc Salotti - Institut de Cognitique de Bordeaux - GT4 GDR Robotique Modélisation du conditionnement pavlovien et du conditionnement opérant Jean.
Réseaux bayésiens pour la recommandation au sein d’un configurateur Anr BR4CP Mathieu Serrurier IRIT.
Transcription de la présentation:

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE18S3 Psychophysique et analyse des signaux 30/11/

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Bayésien, un mot à la mode ?

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Google scholar trend miner

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Quelques définitions du mot « bayésien » –En Intelligence Artificielle –En robotique –En sciences (physiques) –En sciences cognitives 5

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 6

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 7

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Intelligence Artificielle Construire des systèmes qui –pensent / agissent –comme des humains / rationnellement IA vs. Psychologie –IA ≅ psychologie où on construit le sujet –Psychologie ≅ IA où on tente de deviner comment fonctionne un robot ou programme construit par un autre 8

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Intelligence Artificielle 50s-70s –IA Symbolique –Systèmes experts –Blocks World

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Prolog : programmation logique Exemple : système expert en généalogie Programme = –Base de faits –Base de règles Requêtes –Inférence logique : principe de Robinson 10 etre_mere(X)-> mere(X,Y); parent(X,Y)-> mere(X,Y); parent(X,Y)-> pere(X,Y); etre_fils(X) -> parent(Y,X); frere_ou_soeur(X,Y) -> pere(P,X) pere(P,Y); soeur_de(X,Y)-> frere_ou_soeur(X,Y) femme(X); grand_pere_de(X,Y)-> pere(X,Z) parent(Z,Y); cousin(X,Y)-> grand_pere_de(Z,X) grand_pere_de(Z,Y); tante(X,Y)-> parent(Z,Y) soeur_de(X,Z); ancetre(X,Y)-> parent(X,Y); /* cas de base, ancetre direct */ ancetre(X,Y)-> parent(Z,Y) ancetre(X,Z); /* ancetre indirect: X est un ancetre du pere de Y */ descendant(X,Y) -> ancetre(Y,X); louistherese gedeon aglae |__________| |_________________| | | | isabellepierre xavier claire |___________________| |________________| | | | | | gaelle axel catherine johan gwenael mere(aglae, xavier) ->; pere(gedeon, xavier) ->; mere(aglae, pierre) ->; pere(gedeon, pierre) ->; mere(therese, isabelle) ->; pere(louis, isabelle) ->;... ancetre(louis, johan);

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Problème 1966 –Marvin Minsky (MIT) donne un projet d’été de maîtrise à Gerald Sussman. –Sujet : « la vision par ordinateur » Le monde réel n’est pas le « blocks world » –Modèle nécessairement incomplet –Ex : partie d’échecs (Deep Blue) vs. partie de football

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Intelligence Artificielle et monde réel 80s-00s : L’IA symbolique devient la GOFAI –Good old fashioned AI Méthodes numériques –Réseaux de neurones artificiels –Algorithmes génétiques –Modélisation Bayésienne (probabiliste) Transforme l’incomplétude du modèle en incertitude, manipulable mathématiquement Extension de la logique

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Modèles de raisonnement humain Raisonnement déductif (logique) –modus ponens A implique B, A est vrai : B est vrai –modus tollens A implique B, B est faux : A est faux Raisonnement plausible –S’il pleut, alors Jean a son parapluie –Jean a son parapluie –Il pleut, vraisemblablement

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Représentation et règles de calcul Desiderata –Représentation de degrés de plausibilité par des nombres réels –Correspondance qualitative avec le sens commun –Consistance Si une conclusion peut être atteinte par plusieurs chemins d’inférence, le résultat doit être indépendant du chemin Toutes les évidences sont utilisées pour une inférence Des états de connaissances équivalents amènent à des plausibilités équivalentes  Probabilités  Règle du produit et règle de la somme

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Soient A, B, C, des propositions logiques Règle du produit Règle de la somme (de normalisation) Règles de calcul

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Règles de calcul Règle du produit  Théorème de Bayes Règle de la somme  Règle de marginalisation 16 Reverend Thomas Bayes (~ )

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Probability Theory As Extended Logic Probabilités « subjectives » –Référence à un état de connaissance d’un sujet P(« il pleut » | Jean), P(« il pleut » | Pierre) Pas de référence à la limite d’occurrence d’un événement (fréquence) Probabilités conditionnelles –P(A | π) et jamais P(A) Probabilités « fréquentistes » –Une probabilité est une propriété physique d’un objet –Axiomatique de Kolmogorov, théorie des ensembles – 17 E.T. Jaynes ( )

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Inférence probabiliste Théorème –Si on connaît la distribution conjointe P(X 1 X 2 … X n | π) –Alors on peut calculer n’importe quelle « question » P(X 1 | [X n = x n ] π) P(X 2 X 4 | [X 3 = x 3 ] π) 18

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Preuve

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 21

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Logical Paradigm in robotics Incompleteness (Bessière, 03)

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Bayesian Paradigm in robotics =P(M | SDC) P(MS | DC)

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Probability as Logic Incompleteness Uncertainty Preliminary Knowledge + Experimental Data = Probabilistic Representation Maximum Entropy Principle Decision Bayesian Inference P(AB|C)=P(A|C)P(B|AC)=P(B|C)P(A|BC) P(A|C)+P(¬A|C) = 1

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Programme Description P(X 1 … X n | C) Questions : P(X i … X j | X k … X l C) Spécification Identification Variables Décomposition Formes paramétriques Programmation Bayésienne des Robots (PBR) (Lebeltel, 99)

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Sensor Fusion Objective Find the position of a light source Difficulty –No sensor to directly measure the position of a light source. Solution –Model of each sensor –Fusion of the 8 models 26

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Model of a Light Sensor –A priori specification Utilization Description Question Program Specification Identification –Variables  Preliminary Knowledge  sensor –Decomposition –Parametrical Forms ThetaL, DistL, Lmi Lmi

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Model of a Light Sensor (2) Bayesian Inference: Inverse Problem Description: Question 1: Question 2:

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Model of a Light Sensor (3) P( ThetaL | Lmi )P( DistL | Lmi ) Notion of ambiguity

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Sensor Fusion Model –No free parameters Utilization Description Question Program Specification Identification –Variables –Decomposition (Conditional Independance Hypothesis) –Parametrical Forms ThetaL, DistL, Lm0, …, Lm7

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 —

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Classes de modèles probabilistes Réseaux bayésiens Réseaux bayésiens dynamiques Filtres bayésiens Modèles de Markov Cachés Filtres de Kalman Processus de décision markovien (partiellement observable) … 32

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 33

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Notation probabiliste Soient –M = {m 1, m 2, …} ensemble de modèles –Θ = {θ 1, θ 2, …} paramètres des modèles –Δ = {δ 1, δ 2, …, δ n } données expérimentales –δ i = {x, y} une donnée Un modèle –P(δ i ) = P(y | x) P(x) –P(δ i | θ 1 ) = P(y | x θ 1 ) P(x | θ 1 ) –P(δ i | θ 1 m 1 ) = P(y | x θ 1 m 1 ) P(x | θ 1 m 1 ) 34

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Notation probabiliste Un modèle –P(δ i | [Θ = θ 1 ] [M = m 1 ]) Plusieurs modèles –Méta-modèle, modèle hiérarchique – 35

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Version « simplifiée » Une seule classe de modèles M = m 1 Un modèle –P(δ i | [Θ = θ 1 ]) Méta-modèle – 36

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Sélection de modèle Quel est le modèle le plus probable, au vu des données ? –Question ubiquitaire en sciences ! –Trouver θ qui maximise 37

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Si P(  ) = uniforme – Modèle de maximum de vraisemblance Maximum Likelihood (MLE) Si P(  )  uniforme –Modèle = prior  vraisemblance Modèle de maximum a posteriori (MAP) Méthode bayésienne Posterior Prior Vraisemblance

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — data set set of models set of parameters Sélection de modèle Machine learning Identification de paramètres Active learning Design optimization Distinguabilité des modèles

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 41

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Tel monsieur Jourdain… Un phénomène génère des couples x,y Un modèle –prédit y = F(x), F linéaire, F = ax + b –autorise du « bruit » dans les mesures On observe D = {d x1, …, d xn } Question –Quels sont les paramètres a, b les plus probables ?

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Tel monsieur Jourdain…

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Tel monsieur Jourdain…

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Least square fitting sur Mathworld

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Pour aller plus loin… Inférence dans les cas non-linéaires Moindres carrés Bayésien Espace de modèles –  = {3x+2, 4x 3 -2x 2 +4} Priors hiérarchiques –P(  |  ) Rasoir d’Occam automatique…

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Modélisation bayésienne et mesures d’erreursModélisation bayésienne et mesures d’erreurs 47

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » Bonus : importance des variables cachées 48

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Importance des variables cachées 49

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Modélisation d’une série temporelle 50

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 P(  y) 51

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Variable cachée V1 = {Bleu, Rouge} V1=RV1=B 52

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 P(  y | [V1=R]) P(  y | [V1=B]) 53

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 V2 = {Bleu, Rouge} [V1=R] [V1=B] P(  y | [V1=R] [V2=R]) P(  y | [V1=R] [V2=B]) P(  y | [V1=B] [V2=R]) P(  y | [V1=B] [V2=B]) 54

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Digression : entropie Déf : Exemple : [Shannon, 1948] 55

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Exemple 2 : P(X), X = {-1, 0, 1} 56

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Variables cachées, connaissance et entropie Théorème : Les variables cachées apportent de l’information P(  y | [V1=B] [V2=B]) P(  y) 57

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Prédiction de la prochaine valeur ? P(  y) P(  y | [V1=B] [V2=B]) 58

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Pour , [V1=B] et [V2=B] 59

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Merci de votre attention ! Questions ?

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Timing Préambule 15 min –En Intelligence Artificielle 30 min Historique –En robotique 30 min Exemple de Programme Bayésien Pause 15 min –En sciences (physiques) Méthodologie de sélection de modèles 30 min Exemples de « bayésien caché »45 min Bonus : importance des variables cachées 15 min 61