Champs de Markov en Vision par Ordinateur

Slides:



Advertisements
Présentations similaires
Chaîne de Synthèse Réel Modélisation Rendu Image Fichier Scène
Advertisements

Traitement d’images : concepts avancés
Application au suivi des paramètres de problèmes de vision
STATISTIQUE INFERENTIELLE L ’ESTIMATION
Introduction au cours “Modèles stochastiques en traitement d’image”
Champs de Markov en Vision par Ordinateur
Champs de Markov en Vision par Ordinateur
1/30 Rendu par tracé de chemins ESSI2 George Drettakis http: //www-sop.imag.fr/reves/George.Drettakis/cours/ESSI2/index.html.
compensation de défaut : flou, bougé, écho
Inférence statistique
Application de réseaux bayésiens à la détection de fumées polluantes
3. Analyse et estimation du mouvement dans la vidéo

Échantillonnage-Estimation
Traitements d'images et Vision par ordinateur
Traitements d'images et Vision par ordinateur
Chapitre 6 : Restauration d’images
« 90% de nos trains arrivent à lheure! ». énoncé exercice : « Le retard sur un trajet train de 6h15 Marseille-Paris est en moyenne: 10mn avec écart type.
Approche statistique semi-paramétrique du recalage iconique d’images
Traitements d'images et Vision par ordinateur
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Traitement d’images : concepts avancés
Groupe 1: Classes de même intervalle
DEA Perception et Traitement de l’Information
Plan d’expérience dynamique pour la maximisation
DEA Perception et Traitement de l’Information
Signaux aléatoires.
Le test t.
Prédiction multi-step de la volatilité : le modèle ARIMA-GARCH appliqué aux séries temporelles d’affaiblissement par la pluie sur les liaisons Terre-Satellite.
Projet Traitement d'images en C
Les Arbres de décision ou régression
TRAITEMENT D’IMAGE SIF-1033.
TRAITEMENT D’IMAGE SIF-1033.
Régression linéaire (STT-2400)
Le filtrage d’images.
Réseaux bayésiens Chap. 14 Sections 1 – 3.
04/09/2002école d'été du GRGS1 LES EQUATIONS VARIATIONNELLLES Jean-Charles MARTY CNES/GRGS.
Segmentation par analyse d’une image de gradient (ligne de partage des eaux) par fusion de régions dans un graphe par méthode variationnelle (Mumford.
Classification (approches globales)
Classification : objectifs
Les Fonctions et leurs propriétés.
TRAITEMENT D’IMAGE SIF-1033 Segmentation des images par détection de contours et d’arêtes u Détection des contours et arêtes u Dérivée première (gradient)
INF-1019 Programmation en temps réel
Les effets de la topographie sur le climat
TNS et Analyse Spectrale
Théorie de Files d’Attente
MAP-6014 Concepts avancés en mathématiques et informatique appliquées
SIF1033 TRAITEMENT D’IMAGE
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES
Méthode des moindres carrés (1)
Séries chronologiques univariées (STT-6615)
Faculté de Mathématiques et d’Informatique
Rappels sur les fonctions et les suites aléatoires
Mathématiques pour Informaticien I
1 Gestion des voitures médecins d'Urgences-Santé Michel Gendreau Émilie Frot¹ Gilbert Laporte Frédéric Semet¹ Centre de recherche sur les transports Université.
1 Licence Stat-info CM4 c 2004 V1Christophe Genolini Estimateur fiable.
Séries chronologiques univariées (STT-6615)
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Méthodes de prévision (STT-3220)
Traitement d’images 420-D78-SW A15 Semaine 02.
PIF-6003 Sujets spéciaux en informatique I
1_Introduction Toute mesure est entachée d’erreur. Il est impossible d’effectuer des mesures rigoureusement exactes. Pour rendre compte du degré d’approximation.
MENU 1 Modèles de choix.
ECHANTILLONAGE ET ESTIMATION
Introduction aux statistiques Intervalles de confiance
Filtrage des images.
Chapitre 6 Les tests d ’ hypoth è se 1 – Comparer des moyennes ou des proportions.
Processus ponctuels Caractéristiques et Modèles de répartitions spatiales.
Régression linéaire (STT-2400) Section 3 Préliminaires, Partie II, La loi multinormale Version: 8 février 2007.
Projet logiciel orienté objets M2 Pro OSAE – P.Didelon, J.F.Rabasse.
Transcription de la présentation:

Champs de Markov en Vision par Ordinateur TNS : TTM5104

Part II : Exemples.

II : Exemple 1 : Bruit. La lumière reflétée par la scène prends du bruit pendant son voyage vers la caméra : Conditions atmosphériques ; Bruit photonique et électronique dans la caméra. On veut connaître l’image originale avant l’addition de bruit. On connaît l’image bruitée.

II : Exemple 1 : Modèlisation. On veut modéliser deux choses: La formation de l’image à partir de la scène. La scène : l’image originale inconnue. Le domaine D est l’ensemble de pixels dans l’image. La scène prend des valeurs en (image monochromatique).

II : Exemple 1 : Formation A. On suppose que le bruit est: Additif : le bruit s’ajoute au signal (pas se multiplie par exemple). Stationnaire : la probabilité d’une configuration de bruit est la même pour toutes les translations possibles. Blanc : le bruit en un point est indépendant du bruit aux autres points. Gaussien : le niveau de bruit en chaque point est distribué selon une loi gaussienne.

II : Exemple 1 : Formation B. Le bruit est un MRF trivial. Toutes les variables sont indépendantes. Le graphe n’a pas d’arcs:

II : Exemple 1 : La Scène A. Qu’est-ce que l’on sait de la scène ? Peut-être rien : Pr(S) = constant. Les estimées par le MAP, MPM et la moyenne sont en accord : S = I. On n’a rien fait. Pas très satisfaisant !

II : Exemple 1 : La Scène B. Effectivement on sait beaucoup plus que rien sur la scène. Une supposition souvent utilisée est que la scène est plus lisse que l’image. Deux pixels voisins ont généralement des valeurs proches.

II : Exemple 1: La Scène C. On utilise une voisinage de 4 ou 8 voisins : Le modèle est stationnaire ( est constant). Z est une fonction de . 4 8

II : Exemple 1 : Difficultés. Le modèle de la scène n’est pas très bon : Le terme quadratique est trop fort. Les images ont des discontinuités. On ne connait pas ou . On doit Ou les estimer; Ou les intégrer (marginaliser).

II : Exemple 2 : Segmentation. On suppose que dans la scène il y a des sortes différentes. Les sortes sont indexés par les éléments d’un ensemble L. On veut assigner une de ces étiquettes à chaque point dans le domaine de l’image. Donc la scène est une fonction de D vers L.

II : Exemple 2 : Images Satellitaires. Une des tâches importantes dans le traitement d’images satellitaires est d’identifier les sortes de couverture terrain. Zone urbaine ou suburbaine ; Foret ; Agriculture  ; Aéroports ; Routes.

II : Exemple 2 : La Scène A. Comme toujours, le graphe est formé par les pixels dans D. Deux modèles sont les plus importants. Indépendants : chaque étiquette ne dépend pas sur ses voisins. Modèle de Potts : chaque pixel essaye d’avoir la même étiquette de ses 4 ou 8 voisins.

II : Exemple 2 : Formation A. Normalement, on fait l’hypothèse suivant ( est le sous-ensemble qui a l comme cible) : Pour chaque étiquette, on a un modèle d’images qui ne contient que cette sorte.

II : Exemple 2 : Formation B : Niveaux de gris. Chaque sorte a un niveau de gris moyen et une variance. Ça veut dire que

II : Exemple 2 : La Scène B : Indépendant. Chaque pixel est distribué selon la même loi : . Ce veut dire que

II : Exemple 2 : La Scène C : Indépendant. Si On sait les valeurs  ; Puis l’estimée MAP devient

II : Exemple 2 : Difficultés. Le problème est que chaque pixel prends sa décision seule. L’estimée est trop rugueuse. Il faut régulariser la solution utilisant un probabilité a priori plus compliqué.

II : Exemple 2 : La Scène C : Potts. Le modèle de Potts favorise les configurations qui contiennent des voisins avec la même étiquette.

II : Exemple 2 : La Scène D : Potts. Le modèle de Potts rends la solution plus lisse et plus homogène.