Graphisme par ordinateur

Slides:



Advertisements
Présentations similaires
10/31/02 Leïla Merghem - LIP6 Une approche Multi-Agents pour la Simulation de Réseaux de Télécommunications Leïla Merghem (LIP 6) Dominique Gaïti (LIP.
Advertisements

Champs de Markov en Vision par Ordinateur
Champs de Markov en Vision par Ordinateur
RECONNAISSANCE DE FORMES
Illustration élémentaires des filtres particulaires utiliser pleinement la puissance de calcul des ordinateurs pour contourner les limitation des approches.
Présentation des programmes de terminale STG Juin 2006.
A L I M E N T A T I O N A G R I C U L T U R E E N V I R O N N E M E N T.
Université de Ouagadougou
Conception de Programmes Evolutifs Pré Soutenance de TER Année Encadrants : Cathy Escazut et Michel Gautero Auteurs: Paul-Kenji Cahier Sylvain.
Inférence statistique
INTRODUCTION Grande quantité de données
Application de réseaux bayésiens à la détection de fumées polluantes
4 Les Lois discrètes.
5 La Loi de Laplace Gauss ou loi Normale
Notions de variable aléatoire et de probabilité d’un événement
Statistiques et probabilités en première
Résumé cours précédent
INF 162 Probabilités pour l’informatique Licence informatique
Expériences contrôlées Quasi-expériences Études de cas
Septième étape : travailler avec des graphes probabilistes
Les lois des probabilités
Méthodes de Biostatistique
Suites de matrices Quelques usages récurrents
MAINTENANCE INDUSTRIELLE
Etude longitudinale d’essais multilocaux: apports du modèle mixte
RECONNAISSANCE DE FORMES
Signaux aléatoires.
Les graphiques pour la vélocité. Les variables: Indépendante - Dépendante - Une révision des graphiques:
IFT 615 Intelligence Artificielle
Froduald Kabanza Département d’informatique Université de Sherbrooke
Statistique et Causalité
Expériences contrôlées Rappel du cours d’IHM
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
IFT 615 Intelligence Artificielle
Réseaux bayésiens Chap. 14 Sections 1 – 3.
Filtrage de Kalman et aperçu probabiliste
Régression linéaire (STT-2400)
Réseaux bayésiens: Inférence
Architecture d’un système expert
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 11 Interaction Joueur/Jeu, effets sonores –Interaction clavier –Interaction souris –Interaction manette.
Probabilités et Statistiques
IFT 615 – Intelligence artificielle Réseaux bayésiens
Froduald Kabanza Département d’informatique Université de Sherbrooke
TD4 : « Lois usuelles de statistiques »
Intervalles de confiance pour des proportions L’inférence statistique
Septembre Semaines du 2 au 13 septembre DATECOURSEXERCICESEXERCICES à fairePOUR le Jeudi 4 Prise de contact Rappels sur les suites 2 exemples donnés pour.
Sériation et traitement de données archéologiques
Apprentissage « machine »
Présentation d'une nouvelle loi de probabilité La loi normale ou loi de Laplace-Gauss (1774) François GONET Septembre 2005 Lycée Paul Langevin.
Googling for a diagnosis – use of Google as a diagnosis aid : internet based study BMJ décembre 2006 Tang H, Ng HNJ.
TIPE Les dames chinoises
Terminale STG 2006 Statistiques à deux variables
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 13 Introduction à l’intelligence artificielle dans les environnements de jeux 3D –Notions d’agents.
1/16 Chapitre 3: Représentation des systèmes par la notion de variables d’état Contenu du chapitre 3.1. Introduction 3.2. Les variables d’état d’un système.
La loi normale ou loi de Laplace-Gauss
Présenté par : ABED Djemaa; BAKHOUIA Roqiya.
20/06/2015propagation de signatures lexicales dans le graphe du Web 1 Propagation de signatures lexicales dans le graphe du Web M. Bouklit M. Lafourcade.
Evaluation des performances des tests diagnostiques en absence de Gold Standard Christophe Combescure Laboratoire de Biostatistique, IURC.
Restituer de la connaissance
Relations et fonctions
Rappel de statistiques
Concepts avancés en mathématiques et informatique appliquées
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 7 Introduction à l’illumination avec XNA Voir le tutoriel:
Plan 1. Probabilités conditionnelles 2. Indépendance en probabilité
1_Introduction Toute mesure est entachée d’erreur. Il est impossible d’effectuer des mesures rigoureusement exactes. Pour rendre compte du degré d’approximation.
LES POSTULATS DE LA MÉCANIQUE QUANTIQUE
Concepts avancés en mathématiques et informatique appliquées
INTELLIGENCE ARTIFICIELLE
GRAPHISME PAR ORDINATEUR
Transcription de la présentation:

Graphisme par ordinateur SIF1032

Appproches statistiques de la classification (Réseaux Bayesien) Introduction Probabilité jointe Marginale/Probabilité conditionnelle Chain rule

Introduction (Réseau Bayesien) Représentation structurée, graphique de relations probabilistes entre variables aléatoires Représentation explicite des dépendences et indépendances conditionnelles Dépendances représentées par des arcs dans un graphe Représentation efficiente des probabilités jointes Permet de répondre à diverses requêtes P (lung cancer=yes | smoking=no, positive X-ray=yes ) = ?

Introduction (Réseau Bayesien)

Introduction (Réseau Bayesien) Un domaine d’application peut être modélisé par une de variables aléatoires X1, X2, X3, …., Xn La connaissance contenue dans ce domaine d’application est représentée par la probabilité jointe P(X1, X2, X3, …., Xn) Exemple classique: Alarm (Pearl 1988) À LA, les vols et tremblements de terre sont communs, et déclenchent une alarme, dans ces cas Mary et John, les voisins téléphonent pour vérifier si quelqu’un est à la maison

Probabilité jointe Exemple classique: Alarm (Pearl 1988) Variables: B (vols), E (tremblement de terre), A (alarme), J (John appel), M (Mary appel) La probabilité jointe P(B, E, A, J, M) permet de modéliser l’information sous forme probabiliste

Probabilité jointe Exemple classique: Alarm (Pearl 1988) P(B, E, A, J, M)

Marginale/probabilité conditionnelle Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Pour répondre à cette question, nous devons introduire des notions de marginalisation et de probabilité conditionnelle

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Quelle est la probabilité d’avoir un vol sachant que Mary appel, P(B=y|M=y) ? 0.000115/(0.000115 + 0.00015) = 0.434

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Sachant que la probabilité jointe permet d’extraire les diverses relations entre les variables (informations), il devient alors possible de faire de l’inférence: Inférence diagnostic: inférer les causes à partir d’effets (ex: médecine, déduire une maladie à partir de symptômes), P(B=y|M=Y) Inférence prédictive: inférer les effets à partir des causes, P(M=y|B=y)

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Cependant, la probabilité jointe P(X1, X2, X3, …., Xn) requiert: 2n données pour spécifier les probabilités Donc, difficile d’acquérir ces probabilités Stockage exponentiel Mais en exploitant l’indépendance conditionnelle et la règle de probabilité en chaîne (chain rule) il devient possible de réduire le nombres de paramètres requis pour évaluer les probabilités jointes

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Chain rule

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Sachant que: Alors: Cette dernière opération comporte moins de termes

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) CPT (conditional probability tables)

Introduction (Réseau Bayesien) Exemple classique: Alarm (Pearl 1988) Réseau bayesien correspondant