Champs de Markov en Vision par Ordinateur TNS : TTM5104
Part II : Exemples.
II : Exemple 1 : Bruit. La lumière reflétée par la scène prends du bruit pendant son voyage vers la caméra : Conditions atmosphériques ; Bruit photonique et électronique dans la caméra. On veut connaître l’image originale avant l’addition de bruit. On connaît l’image bruitée.
II : Exemple 1 : Modèlisation. On veut modéliser deux choses: La formation de l’image à partir de la scène. La scène : l’image originale inconnue. Le domaine D est l’ensemble de pixels dans l’image. La scène prend des valeurs en (image monochromatique).
II : Exemple 1 : Formation A. On suppose que le bruit est: Additif : le bruit s’ajoute au signal (pas se multiplie par exemple). Stationnaire : la probabilité d’une configuration de bruit est la même pour toutes les translations possibles. Blanc : le bruit en un point est indépendant du bruit aux autres points. Gaussien : le niveau de bruit en chaque point est distribué selon une loi gaussienne.
II : Exemple 1 : Formation B. Le bruit est un MRF trivial. Toutes les variables sont indépendantes. Le graphe n’a pas d’arcs:
II : Exemple 1 : La Scène A. Qu’est-ce que l’on sait de la scène ? Peut-être rien : Pr(S) = constant. Les estimées par le MAP, MPM et la moyenne sont en accord : S = I. On n’a rien fait. Pas très satisfaisant !
II : Exemple 1 : La Scène B. Effectivement on sait beaucoup plus que rien sur la scène. Une supposition souvent utilisée est que la scène est plus lisse que l’image. Deux pixels voisins ont généralement des valeurs proches.
II : Exemple 1: La Scène C. On utilise une voisinage de 4 ou 8 voisins : Le modèle est stationnaire ( est constant). Z est une fonction de . 4 8
II : Exemple 1 : Difficultés. Le modèle de la scène n’est pas très bon : Le terme quadratique est trop fort. Les images ont des discontinuités. On ne connait pas ou . On doit Ou les estimer; Ou les intégrer (marginaliser).
II : Exemple 2 : Segmentation. On suppose que dans la scène il y a des sortes différentes. Les sortes sont indexés par les éléments d’un ensemble L. On veut assigner une de ces étiquettes à chaque point dans le domaine de l’image. Donc la scène est une fonction de D vers L.
II : Exemple 2 : Images Satellitaires. Une des tâches importantes dans le traitement d’images satellitaires est d’identifier les sortes de couverture terrain. Zone urbaine ou suburbaine ; Foret ; Agriculture ; Aéroports ; Routes.
II : Exemple 2 : La Scène A. Comme toujours, le graphe est formé par les pixels dans D. Deux modèles sont les plus importants. Indépendants : chaque étiquette ne dépend pas sur ses voisins. Modèle de Potts : chaque pixel essaye d’avoir la même étiquette de ses 4 ou 8 voisins.
II : Exemple 2 : Formation A. Normalement, on fait l’hypothèse suivant ( est le sous-ensemble qui a l comme cible) : Pour chaque étiquette, on a un modèle d’images qui ne contient que cette sorte.
II : Exemple 2 : Formation B : Niveaux de gris. Chaque sorte a un niveau de gris moyen et une variance. Ça veut dire que
II : Exemple 2 : La Scène B : Indépendant. Chaque pixel est distribué selon la même loi : . Ce veut dire que
II : Exemple 2 : La Scène C : Indépendant. Si On sait les valeurs ; Puis l’estimée MAP devient
II : Exemple 2 : Difficultés. Le problème est que chaque pixel prends sa décision seule. L’estimée est trop rugueuse. Il faut régulariser la solution utilisant un probabilité a priori plus compliqué.
II : Exemple 2 : La Scène C : Potts. Le modèle de Potts favorise les configurations qui contiennent des voisins avec la même étiquette.
II : Exemple 2 : La Scène D : Potts. Le modèle de Potts rends la solution plus lisse et plus homogène.