Champs de Markov en Vision par Ordinateur

Slides:



Advertisements
Présentations similaires
F. Bataille CEA, Service Hospitalier Frédéric Joliot, Orsay, France
Advertisements

Traitement d’images : concepts avancés
STATISTIQUE INFERENTIELLE L ’ESTIMATION
Algorithmes et structures de données avancés
Classification et prédiction
Introduction au cours “Modèles stochastiques en traitement d’image”
Champs de Markov en Vision par Ordinateur
Champs de Markov en Vision par Ordinateur
Méthodes et Algorithmes Graphiques
Une approche informationnelle de la restauration d’images
RECONNAISSANCE DE FORMES
Inférence statistique
Les TESTS STATISTIQUES
1 Réunion biblio 13/12/00 Support Vectors Présentation générale SSS Maintaining Algorithm.
3. Analyse et estimation du mouvement dans la vidéo
Xialong Dai, Siamak Khorram
Visualisation d’information interactive 5 : Graphes
Synthèse Stage Algorithmique Académie de la Réunion.
Notions de variable aléatoire et de probabilité d’un événement
M. EL Adel & M. Ouladsine LSIS – UMR-CNRS 6168 Marseille - France
Maria-João Rendas CNRS – I3S Novembre 2006
Modélisation des systèmes non linéaires par des SIFs
Les système linéaires Stéphane Paris.
Monique THONNAT et Nathanaël ROTA Projet ORION
Traitements d'images et Vision par ordinateur
Application des algorithmes génétiques
Graphes Conceptuels J.F. Baget Inria.
indépendance linéaire
Décodage des informations
Traitements d'images et Vision par ordinateur
AnaLyse diachronique de l’espace urbain PArisien : approche GEomatique
1.2 COMPOSANTES DES VECTEURS
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
Traitement d’images : concepts avancés
Groupe 1: Classes de même intervalle
La Profondeur de Champ Profondeur de champ : définition
Construction de modèles visuels
La segmentation
Rappel... Solution itérative de systèmes linéaires (suite et fin).
7.1 TRANSFORMATION LINÉAIRE Cours 19. Au dernier cours nous avons vus Le déterminant dune matrice carré Les propriétés du déterminant La matrice adjointe.
DEA Perception et Traitement de l’Information
La loi des signes.
Programme de Seconde 21/10/2009 Rentrée 2009 – 2010.
Interprétation de séquences dimages pour des applications MédiaSpace Alberto AVANZI François BREMOND Monique THONNAT Projet ORION INRIA de Sophia Antipolis.
Méthode des Ensembles de Niveaux par Eléments Finis P1
Courbes de Bézier.
1.6 CONTINUITÉ ET ASYMPTOTE
Design dun système de vision embarqué. Application:
Chapitre 4 : Morphologie Mathématique
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Interprétation automatique
Réseaux bayésiens Chap. 14 Sections 1 – 3.
Segmentation (1ère partie)
Introduction à la reconnaissance:
Suivi d’individus et interprétation vidéo
Outils mathématiques pour le datamining
Synthèse de textures par rééchantillonnage de patchs Vincent MICHEL Aurélien BOFFY Janvier 2007.
Calcul parallèle => partitionner les données en sous-groupes associés aux processeurs. P0 P2 P1.
Classification : objectifs
IFT 615 – Intelligence artificielle Réseaux bayésiens
Apprentissage « machine »
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
Apparence globale 1 image = 1 vecteur Base apprentissage Rotation –capture les variabilités Troncature –Quelques coefficients Représentation linéaire Espace.
ASI 3 Méthodes numériques pour l’ingénieur
Méthode des moindres carrés (1)
Faculté de Mathématiques et d’Informatique
MPEG : normalisation La vidéo est compressé en MPEG2 Une vidéo classique : (720x576) à 50 images entrelacées par seconde. Le Mpeg-2 travaille sur 1/4 de.
LOGIQUE ET PROGRAMMATION LOGIQUE
ECHANTILLONAGE ET ESTIMATION
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Transcription de la présentation:

Champs de Markov en Vision par Ordinateur

0 : Quelques Points avant Commencer : Moi. Ian Jermyn. Anglais comme vous l’entendez ! Excusez mon français s’il vous plait. Chercheur en traitement d’image et vision par ordinateur à l’INRIA dans projet Ariana. Formation en physique théorique et puis vision par ordinateur.

0 : Quelques Points avant Commencer : Contacts. Ian.Jermyn@sophia.inria.fr. www- sop.inria.fr/ariana/personnel/Ian.Jerm yn. Vous trouverez là l’original de ce document.

0 : Quelques Points avant Commencer : Vous. N’ayez pas peur : De questionner – la façon meilleure d’apprendre. De demander que je répète ou explique quelque chose. De me dire si le niveau est trop simple ou trop compliqué. Envoyez-moi un email si vous avez des questions après la conférence.

0 : Images : Deconvolution.

0 : Images : Segmentation.

0 : Buts. Définitions : qu’est-ce que sont les champs de Markov ? Exemples : comment sont-ils utilisés pour la compréhension d’images ? Algorithmes : comment peut-on extraire l’information désirée des modèles ?

Part I : Définitions

I : Modèles Probabilistes d’Images. Donné une image (connu), on veut savoir quelque chose de la ‘scène’ (inconnu). Exemple : on veut savoir s’il y avait une personne dans la scène, et si oui, où. La théorie de probabilité décrit le raisonnement dans les situations de connaissance incomplète. La généralisation unique de la logique aristotélicienne qui satisfait des critères simples et évidents.

I : Théorème de Bayes A. On veut savoir la probabilité de la scène sachant l’image. Le théorème de Bayes/Laplace transforme la probabilité de l’image sachant la scène en la probabilité de la scène sachant l’image. K représente toute la connaissance qu’on a avant de voir l’image : il y a toujours quelque chose.

I : Théorème de Bayes B. La probabilité de l’image sachant la scène et K (la formation de l’image). Souvent un modèle physique. Appelée la vraisemblance. La probabilité de la scène avant d’avoir vu l’image (mais avec la connaissance K). Appelée la probabilité a priori. On doit construire des modèles pour tous les deux.

I : Les espaces d’images A. Pour nous, une image est une fonction d’un domaine vers un espace C. Les signaux acoustiques : N = 1. Les images standard : N = 2. Les images MRI : N = 3. Les séquences vidéo : N = 3 = « 2 + 1 ».

I : Les espace d’images B. La dimension de C : Images monochromatiques : 1. Images en couleur : 3. Images multi- ou hyper-spectrale : plus de 3. D est envisagé comme plongé dans . Ça veut dire que les notions de géométrie peuvent être appliquées si N > 1. C’est une des raisons pour lesquelles le traitement d’image est beaucoup plus difficile que le traitement des signaux 1D.

I : Les espaces de scène : Sémantique. Information sur le monde 3D : Distances et positions des objets dans une photo; Types de végétation dans une image aérienne; Position d’une tumeur dans une image médicale ; Géométrie des bâtiments dans un plan. Paramètres de la caméra. Jugements plus subjectifs : Émotion d’un visage ; Style d’architecture.

I : Les espaces de scène : Mathématique A. Une fonction de D vers un autre espace : Restauration : CD; Segmentation : LD où L est un ensemble (étiquettes d’interprétation) ; Une région : {0,1}D.

I : Les espaces de scène : Mathématique B. Une fonction d’un autre espace vers D : Une région : ; Positions et paramètres d’objets: (D x L)n.

I : Probabilités sur ces espaces. L’espace d’images est énorme. 10157826 images possibles de 256 x 256 pixels. ~1080 atomes dans l’univers visible. ~10157746 images pour chaque atome. Une fraction minuscule contient des images de notre monde. La plupart des images sont du bruit. Les probabilités sont fonction de 65536 variables dépendantes : les valeurs des pixels. Donc, il faut simplifier.

I : Simplification de la probabilité. Les probabilités se simplifient quand quelques variables sont indépendantes les unes, les autres. Les champs de Markov sont une voie (mais pas la seule) pour définir des probabilités simplifiées mais encore utiles.

I : Exemple : Indépendance. Si la scène est décrite par une fonction sur D, la probabilité peut se factoriser sur les pixels  : Dans ce cas, on peut traiter chaque pixel séparément (problème à une dimension).

I : Champs de Markov (MRFs). Un champ de Markov sur un ensemble D est une probabilité sur l’espace de fonctions CD de D vers une autre espace C satisfaisant les conditions suivantes. Positivité : .

I : Champs de Markov (MRFs). Voisinage : pour chaque point , il y a un sous-ensemble t.q. On peut savoir tout ce qui est possible de la valeur de fp sachant seulement les valeurs des ‘voisins’ fN(p)-p.

I : Interprétation comme un graphe. Un graphe non-orienté G est : Un ensemble V (noeuds); Un sous-ensemble t.q. Etant donné un MRF, on définit un graphe de la façon suivante :

I : Cliques. Un sous-ensemble est une clique ssi : . On définit comme l’ensemble de toutes les cliques dans le graphe G.

I : Distributions de Gibbs A Pour une fonction , la probabilité suivante est appelée une distribution de Gibbs:

I : Théorème de Hammersley- Clifford. 1971. Très important parce qu’il permit la construction facile de MRFs. Pour chaque fonction , est un MRF. Pour chaque MRF Pr, on peut trouver une fonction t.q. . Conclusion: GIBBS = MRF

I : Estimées : En Général. Utilité = fonction de coût: Utilité moyenne : Estimée :

I : Estimées : MAP. Maximum A Posteriori : ce maximise la probabilité. N.B. Quand C est continu, l’estimée MAP n’est pas exactement le point plus probable.

I : Estimées : MPM. Maximum Posterior Marginal : ce maximise le nombre de pixels corrects = minimiser le nombre de pixels erronés.

I : Estimées : Moyenne. Moyenne : minimiser l’erreur quadratique moyenne. N.B. C doit être un espace vectoriel.

I : Distribution de Gibbs B. U est appelé l’énergie. Z est appelé le fonction de partition. Pour une distribution de Gibbs, l’estimée MAP prend une forme simple: Cette forme on appèle minimisation d’énergie.