Champs de Markov en Vision par Ordinateur

Slides:



Advertisements
Présentations similaires
Probabilités et statistiques au lycée
Advertisements

F. Bataille CEA, Service Hospitalier Frédéric Joliot, Orsay, France
Identification du nombre de composants
Traitement d’images : concepts avancés
The Reyes Image Rendering Architecture
Introduction au cours “Modèles stochastiques en traitement d’image”
Champs de Markov en Vision par Ordinateur
Champs de Markov en Vision par Ordinateur
De la détection de changement à l’analyse du mouvement
Inférence statistique
Appropriation et extensions d'un logiciel libre de traitement de réseaux bayésiens complexes pour l’appréciation quantitative des risques alimentaires.
3. Analyse et estimation du mouvement dans la vidéo
Optimisation dans les télécommunications
Résumé cours précédent
Modélisation Bayésienne par chaines de Markov Monte Carlo
Animation de solides en contact par modèle physique
Le filtrage au cours des âges Du filtre de Kalman au filtrage particulaire André Monin.
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
Application des algorithmes génétiques
5. Algorithme à estimation de distribution
Les Systèmes Multi-Agents pour la Gestion de Production
Décodage des informations
Couche limite atmosphérique
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
Traitement d’images : concepts avancés
III – Convergence Asymptotique
Construction de modèles visuels
Plan d’expérience dynamique pour la maximisation
DEA Perception et Traitement de l’Information
Comprendre la variation dans les données: Notions de base
4. Algorithme de Recuit Simulé
II- L’algorithme du recuit simulé (pseudo-code)
Modélisation de la topologie avec le Graphe Génératif Gaussien
Vincent Thomas Christine Bourjot Vincent Chevrier
Révisions - IA Généralité: problèmes de lIA Recherche Logique Traitement de lincertitude Apprentissage Langue naturelle.
Théorie… Inférence statistique: étude du comportement d’une population ou d’un caractère X des membres d’une population à partir d’un échantillon aléatoire.
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Programmation non procédurale Le projet ECOLE 2000
Réseaux bayésiens: Inférence
I MAGIS est un projet commun CNRS - INPG - INRIA - UJF iMAGIS-GRAVIR / IMAG Optimisation à base de flot de graphe pour l'acquisition d'informations 3D.
Introduction Objet de la programmation mathématique, construction d'un modèle mathématique, problème général de programmation mathématique et classification,
Soutenance de stage 16 Mai au 5 Août 2011
Soutenance de stage 16 Mai au 5 Août 2011
Segmentation (1ère partie)
les méthodes de recherche locale
10 février 2006GDR ISIS Journée Localisation et Navigation Projet EGNOS-BUS (Eurêka) André Monin, Wael Suleiman LAAS-CNRS.
Classification (approches globales)
Théorème de la limite centrale l’inférence statistique
Ministère de l’Enseignement Supérieur et de la Recherche Scientifique
Classification : objectifs
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
Apparence globale 1 image = 1 vecteur Base apprentissage Rotation –capture les variabilités Troncature –Quelques coefficients Représentation linéaire Espace.
Recherches locales et méta-heuristiques
Chapitre 1 - Introduction.
Suivi rapide d’objet en mouvement
Couche limite atmosphérique
Décision incertaine et logistique : Grille typologique
Algorithmes génétiques en optimisation combinatoire
Méthode des moindres carrés (1)
Faculté de Mathématiques et d’Informatique
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Concepts avancés en mathématiques et informatique appliquées
Comparaison multi-échelle des précipitations du modèle Méso-NH et des données radar Colloque CNFSH – Ecole des Ponts ParisTech – 11/12 juin 2009 A., Gires.
François Couchot, CPE-Lyon, 17 mai Masse des Neutrinos et CMB Extraits de la thèse d’Alexandre Bourrachot (sept. 2004) Problématique de la vraisemblance.
Recuit simulé Une métaheuristique venue de la métallurgie.
ECHANTILLONAGE ET ESTIMATION
Programme linéaire - solution graphique
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Transcription de la présentation:

Champs de Markov en Vision par Ordinateur TNS : TTM5104

Part III : Algorithmes

III : Solutions. On ne veut pas seulement modéliser. Il faut calculer la valeur d’une estimée. Les modèles ne sont pas simples: souvent ils demandent de grandes ressources en temps de calcul et en mémoire. Les espaces sont énormes et il y a beaucoup de minima locaux. Exemple : le recuit simulé peut prendre des heures même sur les images assez petites.

III : Simulation A. Objet : synthétiser des configurations de champs markoviens suivant une certaine distribution de Gibbs. Problème : Z n’est pas calculable. On utilise d’algorithmes de relaxation itératifs qui convergent vers la distribution : Metropolis (1953) ; Echantillonneur de Gibbs (Geman 1984).

III : Simulation B : MCMC Markov Chain Monte Carlo On pense d’une configuration dépendant de temps : . Construction d’une chaîne de Markov La chaîne visite plus souvent les régions de haut probabilité

III : Simulation C : Metropolis. Tirer d’une nouvelle configuration F(t) avec probabilité : Accepter la nouvelle configuration avec probabilité :

III : Echantillonneur de Gibbs A Passage de F(t-1) à F(t) : Choix d’un point p dans le domaine D. Perturbation de la valeur F(t-1)p. Choix d’un point p est fait par : Échantillonnage ; Balayage déterministe.

III : Échantillonneur de Gibbs B Tirage d’une nouvelle valeur d’après la distribution conditionnelle locale : Zp est la fonction de partition locale.

III : Utilisation des Échantillonneurs. Synthèse de textures : Estimée de MAP : optimisation globale. Échantillonneur à température variable : recuit simulé. Estimée moyenne :

III : Estimées de MAP. Il y a beaucoup des algorithmes différents, mais ils se regroupent dans trois catégories: Variationels; Stochastiques; Graphiques.

III : Méthodes Variationelles. Ils descendent à long du gradient. Rapides, mais normalement on trouve seulement un minimum local. Dépendantes de l’initialisation.

III : Méthodes Stochastiques. Ils utilisent l’échantillonnage pour simuler la probabilité. Très lentes, mais on trouve le minimum global (au moins en théorie). On peut calculer le moyenne (ou d’autres quantités statistiques).

III : Méthodes Graphiques. Ils utilisent des algorithmes combinatoires sur les graphes. Pas trop lentes, pas trop rapides, et on trouve le minimum global plus ou moins sûrement. Il y a des limites sur la forme de la probabilité. Deux versions differentes: Maximum flow; Graph cuts.

III : Méthodes Variationels : En Bref. On pense d’une configuration dépendant de temps : . On change S selon le gradient de l’énergie. Beaucoup de variations sur cette thème. Problème : ils trouvent les minima locaux et dépendent de l’initialisation.

III : Recuit Simulé : Relaxation Stochastique Introduction d’un facteur de température T : Quand , deviens uniforme. Quand , se concentre sur les maxima globaux de . Engendrer une séquence de configurations avec .

III : Recuit Simulé : Descente de Température. On prouve que, si : Puis la configuration quand T=0 sera le minimum globale. Mais il faut attendre ! Plus souvent : .

III : Recuit Simulé : Problèmes. En pratique, on doit utiliser une loi de descente de température sous-optimale. La théorème de convergence peut donner l’impression que tous ira bien, mais… Expérience avec les algorithmes graphiques, qui trouvent le minimum global dans un temps fini, montre que les lois sous- optimales sont…sous-optimales. Convergence en 100 – 1000 itérations.

III : Algorithmes Sous- Optimaux : ICM (Besag 1986). Choix d’un point p : balayage déterministe. Remise à jour de p par la valeur qui provoque la plus forte augmentation de probabilité. Echantillonneur de Gibbs à T=0.

III : Algorithmes Sous- Optimaux : ICM. Caractéristiques : Algorithme déterministe ; Convergence vers un minimum local ; Initialisation et mode de balayage influent le résultat ; Convergence en ~10 itérations Très utilisé. Cf. gradient.

III : Algorithmes Sous- Optimaux : HCF (Chou 1988). Highest Confidence First Mesure de stabilité de la valeur fp à un point p ( est l’énergie de la configuration courante) : Les points sont classés dans une pile d’instabilités.

III : Algorithmes Sous- Optimaux : HCF (Chou 1988). À chaque itération le point p0 le plus instable (sommet de la pile) est remis à jour. p0 devient stable. Les stabilités des points de N(p0) sont ré- evaluées. La pile est réordonnée. Répétez. Caractéristiques : Algorithme déterministe ; Convergence en ~1 itération.

III : Autres choses. Algorithmes multi-grilles : Pyramide des étiquettes ; Pyramide des données. Algorithmes multi-échelles : Données mono-résolution. Approximation du champs moyen.

IV : Paramètres. Tous les modèles ont des paramètres. Normalement, ils sont inconnus. Qu’est-ce qu’on peut faire ? Deux approches : Bayesien : marginaliser ; Estimation.

IV : Marginalisation des Paramètres. L’approche plus correcte. Souvent très difficile ou impossible. Principe : on marginalise toutes les quantités auxquelles on n’est pas intéressé.

IV : Paramètres : Estimation. Maximisation de la vraisemblance : Normalement on ne sait pas S : Algorithme EM (Chalmond 1989) : Pas-E : évaluation de l’espérance pour  ; Pas-M : maximisation par rapport à .

Historique 1965 : Abend et al. - théorie des réseaux de Markov. 1971 : Hammersley-Clifford - théorie des champs markoviens. 1972 : Woods – théorie des champs markoviens gaussiens. 1974 : Besag – premières applications des champs markoviens. 1982 : Kirkpatrick et al. – recuit simulé. 1983 : Cross et al. – modélisation de textures. 1983 : Therrien – segmentation des textures. 1984 : Geman et al. – restauration d’images.