Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.

Slides:



Advertisements
Présentations similaires
Sytèmes Experts (Vus à travers Prolog).
Advertisements

Champs de Markov en Vision par Ordinateur
Structures de données et complexité
RECONNAISSANCE DE FORMES
Les K plus proches voisins
Diagram-Based Techniques
Systèmes à base de connaissances
1 Vers la découverte de nouvelles modalités sensori-motrices. Encadrants : Pierre Bessière Anne Spalanzani Pierre Dangauthier DEA I.V.R. 24 Juin 2003 Sélection.
Yann Chevaleyre et Jean-Daniel Zucker
Les méthodes formelles en ingénierie des connaissances Damien Lhomme-Desages Jérémie Barlet.
1 Intégration numérique garantie de systèmes décrits par des équations différentielles non-linéaires Application à l'estimation garantie d'état et de paramètres.
Maria-João Rendas CNRS – I3S Novembre 2006
Le programme de mathématiques en série STG
Qu’est-ce que le bayésianisme objectif?
Introduction à la modélisation bayésienne
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Cours 5 Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE Cognition bayésienne 18/01/
Programmation logique Logique des prédicats du premier ordre
Introduction à la modélisation bayésienne
Fusion de données : Vision probabiliste de la fusion
Décodage des informations
Les probabilités ... la valeur d'un hasard est égale à son degré d'improbabilité. Milan Kundera.
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
DEA Perception et Traitement de l’Information
Rappels de logique des prédicats du 1er ordre
CSI 4506: Introduction à l’intelligence artificielle
1 Evaluer le risque en situation de changement climatique : mission impossible ? SAMA, 19 Janvier 2007 Eric Parent 1, Jacques Bernier 1 et Vincent Fortin.
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Objectifs Chapitre 8: Mesure en psychologie
Lesson 2-1 Conditional Statements 1 MÉTHODES DE RAISONNEMENT.
Comparaison et sélection Bayésienne de modèles
Filtrage de Kalman et aperçu probabiliste
Réseaux bayésiens: Inférence
Intelligence Artificielle et plagiarisme constructif
Présenté par : Attia Hamza Merzouk Abdelkrim 2003/2004
Vers un nouvel empirisme: l’ancien et le nouvel empirisme John Goldsmith Université de Chicago CNRS MoDyCo.
Algorithmique et programmation (1)‏
Test d'hypothèse pour des proportions:
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
Classification : objectifs
IFT 615 – Intelligence artificielle Réseaux bayésiens
D.E ZEGOUR Ecole Supérieure d’Informatique. Problèmes de décision Concepts de base Expressions régulières Notation particulière pour exprimer certaines.
Le langage Racket (Lisp)
S. Canu, laboratoire PSI, INSA de Rouen
Probabilités et Statistiques Année 2010/2011
Sureté de fonctionnement dans les WNCS
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
Fusion de paramètres en classification Parole/Musique Julie Mauclair – Equipe Parole Julien Pinquier – Equipe SAMoVA.
TIPE Les dames chinoises
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 13 Introduction à l’intelligence artificielle dans les environnements de jeux 3D –Notions d’agents.
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.
Thibault ROY & Olivier SAGIT Exposé du mercredi 17 décembre 2003 Apprentissage Interactif Apprentissage avec SpamAssassin UFR de Sciences Département d’Informatique.
Décision incertaine et logistique : Grille typologique
Hiver 2004SEG2501 Chapître 41 Chapître 4 SDL – structure d’un système et son comportement.
Knowledge discovery in Databases (KDD)
Julien Diard — LPNC-CNRS Cours M2R Sciences Cognitives, « Cognition bayésienne » — 2009 Comparaison et sélection Bayésienne de modèles Julien Diard Laboratoire.
Introduction à la modélisation bayésienne
Méthode des moindres carrés (1)
GPA-779 Application des systèmes experts et des réseaux de neurones.
Modélisation bayésienne de la perception et de l’action
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.
Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2010 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie.
Introduction à la modélisation bayésienne
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Graphisme par ordinateur
Concepts avancés en mathématiques et informatique appliquées
Modélisation des Actions Mécaniques Première sti2d
Jean Marc Salotti - Institut de Cognitique de Bordeaux - GT4 GDR Robotique Modélisation du conditionnement pavlovien et du conditionnement opérant Jean.
Réseaux bayésiens pour la recommandation au sein d’un configurateur Anr BR4CP Mathieu Serrurier IRIT.
Transcription de la présentation:

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Introduction à la modélisation bayésienne Julien Diard Laboratoire de Psychologie et NeuroCognition – CNRS UE18S3 Psychophysique et analyse des signaux 15/12/

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Bayésien, un mot à la mode ?

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Google scholar trend miner

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Quelques définitions du mot « bayésien » –En Intelligence Artificielle –En robotique –En sciences (physiques) –En sciences cognitives 5

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 6

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 7

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Intelligence Artificielle Construire des systèmes qui –pensent / agissent –comme des humains / rationnellement IA vs. Psychologie –IA ≅ psychologie où on construit le sujet –Psychologie ≅ IA où on tente de deviner comment fonctionne un robot ou programme construit par un autre 8

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Intelligence Artificielle 50s-70s –IA Symbolique –Systèmes experts –Blocks World

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Prolog : programmation logique Exemple : système expert en généalogie Programme = –Base de faits –Base de règles Requêtes –Inférence logique : principe de Robinson 10 etre_mere(X)-> mere(X,Y); parent(X,Y)-> mere(X,Y); parent(X,Y)-> pere(X,Y); etre_fils(X) -> parent(Y,X); frere_ou_soeur(X,Y) -> pere(P,X) pere(P,Y); soeur_de(X,Y)-> frere_ou_soeur(X,Y) femme(X); grand_pere_de(X,Y)-> pere(X,Z) parent(Z,Y); cousin(X,Y)-> grand_pere_de(Z,X) grand_pere_de(Z,Y); tante(X,Y)-> parent(Z,Y) soeur_de(X,Z); ancetre(X,Y)-> parent(X,Y); /* cas de base, ancetre direct */ ancetre(X,Y)-> parent(Z,Y) ancetre(X,Z); /* ancetre indirect: X est un ancetre du pere de Y */ descendant(X,Y) -> ancetre(Y,X); louistherese gedeon aglae |__________| |_________________| | | | isabellepierre xavier claire |___________________| |________________| | | | | | gaelle axel catherine johan gwenael mere(aglae, xavier) ->; pere(gedeon, xavier) ->; mere(aglae, pierre) ->; pere(gedeon, pierre) ->; mere(therese, isabelle) ->; pere(louis, isabelle) ->;... ancetre(louis, johan);

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Problème 1966 –Marvin Minsky (MIT) donne un projet d’été de maîtrise à Gerald Sussman. –Sujet : « la vision par ordinateur » Le monde réel n’est pas le « blocks world » –Modèle nécessairement incomplet –Ex : partie d’échecs (Deep Blue) vs. partie de football

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Intelligence Artificielle et monde réel 80s-00s : L’IA symbolique devient la GOFAI –Good old fashioned AI Méthodes numériques –Réseaux de neurones artificiels –Algorithmes génétiques –Modélisation Bayésienne (probabiliste) Transforme l’incomplétude du modèle en incertitude, manipulable mathématiquement Extension de la logique

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Modèles de raisonnement humain Raisonnement déductif (logique) –modus ponens A implique B, A est vrai : B est vrai –modus tollens A implique B, B est faux : A est faux Raisonnement plausible –S’il pleut, alors Jean a son parapluie –Jean a son parapluie –Il pleut, vraisemblablement

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Représentation et règles de calcul Desiderata –Représentation de degrés de plausibilité par des nombres réels –Correspondance qualitative avec le sens commun –Consistance Si une conclusion peut être atteinte par plusieurs chemins d’inférence, le résultat doit être indépendant du chemin Toutes les évidences sont utilisées pour une inférence Des états de connaissances équivalents amènent à des plausibilités équivalentes  Probabilités  Règle du produit et règle de la somme

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Soient A, B, C, des propositions logiques Règle du produit (de Bayes) Règle de la somme (de normalisation) Règles de calcul Reverend Thomas Bayes (~ )

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Probability Theory As Extended Logic Probabilités « subjectives » –Référence à un état de connaissance d’un sujet P(« il pleut » | Jean), P(« il pleut » | Pierre) Pas de référence à la limite d’occurrence d’un événement (fréquence) Probabilités conditionnelles –P(A | π) et jamais P(A) Probabilités « fréquentistes » –Une probabilité est une propriété physique d’un objet –Axiomatique de Kolmogorov, théorie des ensembles – 16 E.T. Jaynes ( )

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Inférence probabiliste Théorème –Si on connaît la distribution conjointe P(X 1 X 2 … X n | π) –Alors on peut calculer n’importe quelle « question » P(X 1 | [X n = x n ] π) P(X 2 X 4 | [X 3 = x 3 ] π) 17

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Preuve

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 20

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Logical Paradigm in robotics Incompleteness (Bessière, 03)

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Bayesian Paradigm in robotics =P(M | SDC) P(MS | DC)

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Probability as Logic Incompleteness Uncertainty Preliminary Knowledge + Experimental Data = Probabilistic Representation Maximum Entropy Principle Decision Bayesian Inference P(AB|C)=P(A|C)P(B|AC)=P(B|C)P(A|BC) P(A|C)+P(¬A|C) = 1

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Programme Description P(X 1 … X n | C) Questions : P(X i … X j | X k … X l C) Spécification Identification Variables Décomposition Formes paramétriques Programmation Bayésienne des Robots (PBR) (Lebeltel, 99)

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Sensor Fusion Objective Find the position of a light source Difficulty –No sensor to directly measure the position of a light source. Solution –Model of each sensor –Fusion of the 8 models 25

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Model of a Light Sensor –A priori specification Utilization Description Question Program Specification Identification –Variables  Preliminary Knowledge  sensor –Decomposition –Parametrical Forms ThetaL, DistL, Lmi Lmi

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Model of a Light Sensor (2) Bayesian Inference: Inverse Problem Description: Question 1: Question 2:

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Model of a Light Sensor (3) P( ThetaL | Lmi )P( DistL | Lmi ) Notion of ambiguity

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Sensor Fusion Model –No free parameters Utilization Description Question Program Specification Identification –Variables –Decomposition (Conditional Independance Hypothesis) –Parametrical Forms ThetaL, DistL, Lm0, …, Lm7

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 —

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 31

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Notation probabiliste Soient –M = {m 1, m 2, …} ensemble de modèles –Θ = {θ 1, θ 2, …} paramètres des modèles –Δ = {δ 1, δ 2, …, δ n } données expérimentales –δ i = {x, y} une donnée Un modèle –P(δ i ) = P(y | x) P(x) –P(δ i | θ 1 ) = P(y | x θ 1 ) P(x | θ 1 ) –P(δ i | θ 1 m 1 ) = P(y | x θ 1 m 1 ) P(x | θ 1 m 1 ) 32

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Notation probabiliste Un modèle –P(δ i | [Θ = θ 1 ] [M = m 1 ]) Plusieurs modèles –Méta-modèle, modèle hiérarchique – 33

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Version « simplifiée » Une seule classe de modèles M = m 1 Un modèle –P(δ i | [Θ = θ 1 ]) Méta-modèle – 34

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Sélection de modèle Quel est le modèle le plus probable, au vu des données ? –Question ubiquitaire en sciences ! –Trouver θ qui maximise 35

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Si P(  ) = uniforme – Modèle de maximum de vraisemblance Maximum Likelihood (MLE) Si P(  )  uniforme –Modèle = prior  vraisemblance Modèle de maximum a posteriori (MAP) Méthode bayésienne Posterior Prior Vraisemblance

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Êtes-vous « Bayésien » ? I’m a bayesian if I use the word “probability”. I’m a bayesian if I use the word “conditional probability”. I’m a bayesian if I use Bayes’ rule. I’m a bayesian if I use Bayes’ rule in order to make inference. I’m a bayesian if I think that probabilities represent states of knowledge. I’m a bayesian if I think that probabilities represent states of knowledge and I also consider my parameters as random variables. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors (no MaxLikelihood). I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I use priors on priors (hierarchical models). I’m a bayesian if I think that probabilities represent states of knowledge and I use subjective priors. I’m a bayesian if I think that probabilities represent states of knowledge and I use priors and I never use MAP. Blog de Pierre Dangauthier

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » –En sciences cognitives Modélisation de la perception et de l’action 38

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Tel monsieur Jourdain… Un phénomène génère des couples x,y Un modèle –prédit y = F(x), F linéaire, F = ax + b –autorise du « bruit » dans les mesures On observe D = {d x1, …, d xn } Question –Quels sont les paramètres a, b les plus probables ?

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Tel monsieur Jourdain…

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Tel monsieur Jourdain…

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Least square fitting sur Mathworld

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — Pour aller plus loin… Inférence dans les cas non-linéaires Moindres carrés Bayésien Espace de modèles –  = {3x+2, 4x 3 -2x 2 +4} Priors hiérarchiques –P(  |  ) Rasoir d’Occam automatique…

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Modélisation bayésienne et mesures d’erreursModélisation bayésienne et mesures d’erreurs 44

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Plan Introduction à la modélisation bayésienne –En Intelligence Artificielle Historique –En robotique Exemple de Programme Bayésien –En sciences (physiques) Méthodologie de sélection de modèles Exemples de « bayésien caché » Bonus : importance des variables cachées 45

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Importance des variables cachées 46

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Modélisation d’une série temporelle 47

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 P(  y) 48

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Variable cachée V1 = {Bleu, Rouge} V1=RV1=B 49

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 P(  y | [V1=R]) P(  y | [V1=B]) 50

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 V2 = {Bleu, Rouge} [V1=R] [V1=B] P(  y | [V1=R] [V2=R]) P(  y | [V1=R] [V2=B]) P(  y | [V1=B] [V2=R]) P(  y | [V1=B] [V2=B]) 51

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Digression : entropie Déf : Exemple : [Shannon, 1948] 52

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Exemple 2 : P(X), X = {-1, 0, 1} 53

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Variables cachées, connaissance et entropie Théorème : Les variables cachées apportent de l’information P(  y | [V1=B] [V2=B]) P(  y) 54

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Prédiction de la prochaine valeur ? P(  y) P(  y | [V1=B] [V2=B]) 55

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Pour 2007, [V1=B] et [V2=B] 56

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Merci de votre attention ! Questions ?

Julien Diard — LPNC-CNRS Cours M2R Psychologie Cognitive — UE18S3 — 2009 Timing Préambule 15 min –En Intelligence Artificielle 30 min Historique –En robotique 30 min Exemple de Programme Bayésien Pause 15 min –En sciences (physiques) Méthodologie de sélection de modèles 30 min Exemples de « bayésien caché »45 min Bonus : importance des variables cachées 15 min 58