La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Champs de Markov en Vision par Ordinateur

Présentations similaires


Présentation au sujet: "Champs de Markov en Vision par Ordinateur"— Transcription de la présentation:

1 Champs de Markov en Vision par Ordinateur

2 0 : Quelques Points avant Commencer : Moi.
Ian Jermyn. Anglais comme vous l’entendez ! Excusez mon français s’il vous plait. Chercheur en traitement d’image et vision par ordinateur à l’INRIA dans projet Ariana. Formation en physique théorique et puis vision par ordinateur.

3 0 : Quelques Points avant Commencer : Contacts.
www- sop.inria.fr/ariana/personnel/Ian.Jerm yn. Vous trouverez là l’original de ce document.

4 0 : Quelques Points avant Commencer : Vous.
N’ayez pas peur : De questionner – la façon meilleure d’apprendre. De demander que je répète ou explique quelque chose. De me dire si le niveau est trop simple ou trop compliqué. Envoyez-moi un si vous avez des questions après la conférence.

5 0 : Images : Deconvolution.

6 0 : Images : Segmentation.

7 0 : Buts. Définitions : qu’est-ce que sont les champs de Markov ?
Exemples : comment sont-ils utilisés pour la compréhension d’images ? Algorithmes : comment peut-on extraire l’information désirée des modèles ?

8 Part I : Définitions

9 I : Modèles Probabilistes d’Images.
Donné une image (connu), on veut savoir quelque chose de la ‘scène’ (inconnu). Exemple : on veut savoir s’il y avait une personne dans la scène, et si oui, où. La théorie de probabilité décrit le raisonnement dans les situations de connaissance incomplète. La généralisation unique de la logique aristotélicienne qui satisfait des critères simples et évidents.

10 I : Théorème de Bayes A. On veut savoir la probabilité de la scène sachant l’image. Le théorème de Bayes/Laplace transforme la probabilité de l’image sachant la scène en la probabilité de la scène sachant l’image. K représente toute la connaissance qu’on a avant de voir l’image : il y a toujours quelque chose.

11 I : Théorème de Bayes B. La probabilité de l’image sachant la scène et K (la formation de l’image). Souvent un modèle physique. Appelée la vraisemblance. La probabilité de la scène avant d’avoir vu l’image (mais avec la connaissance K). Appelée la probabilité a priori. On doit construire des modèles pour tous les deux.

12 I : Les espaces d’images A.
Pour nous, une image est une fonction d’un domaine vers un espace C. Les signaux acoustiques : N = 1. Les images standard : N = 2. Les images MRI : N = 3. Les séquences vidéo : N = 3 = « 2 + 1 ».

13 I : Les espace d’images B.
La dimension de C : Images monochromatiques : 1. Images en couleur : 3. Images multi- ou hyper-spectrale : plus de 3. D est envisagé comme plongé dans Ça veut dire que les notions de géométrie peuvent être appliquées si N > 1. C’est une des raisons pour lesquelles le traitement d’image est beaucoup plus difficile que le traitement des signaux 1D.

14 I : Les espaces de scène : Sémantique.
Information sur le monde 3D : Distances et positions des objets dans une photo; Types de végétation dans une image aérienne; Position d’une tumeur dans une image médicale ; Géométrie des bâtiments dans un plan. Paramètres de la caméra. Jugements plus subjectifs : Émotion d’un visage ; Style d’architecture.

15 I : Les espaces de scène : Mathématique A.
Une fonction de D vers un autre espace : Restauration : CD; Segmentation : LD où L est un ensemble (étiquettes d’interprétation) ; Une région : {0,1}D.

16 I : Les espaces de scène : Mathématique B.
Une fonction d’un autre espace vers D : Une région : ; Positions et paramètres d’objets: (D x L)n.

17 I : Probabilités sur ces espaces.
L’espace d’images est énorme. images possibles de 256 x 256 pixels. ~1080 atomes dans l’univers visible. ~ images pour chaque atome. Une fraction minuscule contient des images de notre monde. La plupart des images sont du bruit. Les probabilités sont fonction de variables dépendantes : les valeurs des pixels. Donc, il faut simplifier.

18 I : Simplification de la probabilité.
Les probabilités se simplifient quand quelques variables sont indépendantes les unes, les autres. Les champs de Markov sont une voie (mais pas la seule) pour définir des probabilités simplifiées mais encore utiles.

19 I : Exemple : Indépendance.
Si la scène est décrite par une fonction sur D, la probabilité peut se factoriser sur les pixels  : Dans ce cas, on peut traiter chaque pixel séparément (problème à une dimension).

20 I : Champs de Markov (MRFs).
Un champ de Markov sur un ensemble D est une probabilité sur l’espace de fonctions CD de D vers une autre espace C satisfaisant les conditions suivantes. Positivité :

21 I : Champs de Markov (MRFs).
Voisinage : pour chaque point , il y a un sous-ensemble t.q. On peut savoir tout ce qui est possible de la valeur de fp sachant seulement les valeurs des ‘voisins’ fN(p)-p.

22 I : Interprétation comme un graphe.
Un graphe non-orienté G est : Un ensemble V (noeuds); Un sous-ensemble t.q. Etant donné un MRF, on définit un graphe de la façon suivante :

23 I : Cliques. Un sous-ensemble est une clique ssi : .
On définit comme l’ensemble de toutes les cliques dans le graphe G.

24 I : Distributions de Gibbs A
Pour une fonction , la probabilité suivante est appelée une distribution de Gibbs:

25 I : Théorème de Hammersley- Clifford.
1971. Très important parce qu’il permit la construction facile de MRFs. Pour chaque fonction , est un MRF. Pour chaque MRF Pr, on peut trouver une fonction t.q Conclusion: GIBBS = MRF

26 I : Estimées : En Général.
Utilité = fonction de coût: Utilité moyenne : Estimée :

27 I : Estimées : MAP. Maximum A Posteriori : ce maximise la probabilité.
N.B. Quand C est continu, l’estimée MAP n’est pas exactement le point plus probable.

28 I : Estimées : MPM. Maximum Posterior Marginal : ce maximise le nombre de pixels corrects = minimiser le nombre de pixels erronés.

29 I : Estimées : Moyenne. Moyenne : minimiser l’erreur quadratique moyenne. N.B. C doit être un espace vectoriel.

30 I : Distribution de Gibbs B.
U est appelé l’énergie. Z est appelé le fonction de partition. Pour une distribution de Gibbs, l’estimée MAP prend une forme simple: Cette forme on appèle minimisation d’énergie.


Télécharger ppt "Champs de Markov en Vision par Ordinateur"

Présentations similaires


Annonces Google