La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Champs de Markov en Vision par Ordinateur. 0 : Quelques Points avant Commencer : Moi. Ian Jermyn. Anglais comme vous lentendez ! Excusez mon français.

Présentations similaires


Présentation au sujet: "Champs de Markov en Vision par Ordinateur. 0 : Quelques Points avant Commencer : Moi. Ian Jermyn. Anglais comme vous lentendez ! Excusez mon français."— Transcription de la présentation:

1 Champs de Markov en Vision par Ordinateur

2 0 : Quelques Points avant Commencer : Moi. Ian Jermyn. Anglais comme vous lentendez ! Excusez mon français sil vous plait. Chercheur en traitement dimage et vision par ordinateur à lINRIA dans projet Ariana. Formation en physique théorique et puis vision par ordinateur.

3 0 : Quelques Points avant Commencer : Contacts. www- sop.inria.fr/ariana/personnel/Ian.Jerm yn. www- sop.inria.fr/ariana/personnel/Ian.Jerm yn Vous trouverez là loriginal de ce document.

4 0 : Quelques Points avant Commencer : Vous. Nayez pas peur : De questionner – la façon meilleure dapprendre. De demander que je répète ou explique quelque chose. De me dire si le niveau est trop simple ou trop compliqué. Envoyez-moi un si vous avez des questions après la conférence.

5 0 : Images : Deconvolution.

6 0 : Images : Segmentation.

7 0 : Buts. Définitions : quest-ce que sont les champs de Markov ? Exemples : comment sont-ils utilisés pour la compréhension dimages ? Algorithmes : comment peut-on extraire linformation désirée des modèles ?

8 Part I : Définitions

9 I : Modèles Probabilistes dImages. Donné une image (connu), on veut savoir quelque chose de la scène (inconnu). Exemple : on veut savoir sil y avait une personne dans la scène, et si oui, où. La théorie de probabilité décrit le raisonnement dans les situations de connaissance incomplète. La généralisation unique de la logique aristotélicienne qui satisfait des critères simples et évidents.

10 I : Théorème de Bayes A. On veut savoir la probabilité de la scène sachant limage. Le théorème de Bayes/Laplace transforme la probabilité de limage sachant la scène en la probabilité de la scène sachant limage. K représente toute la connaissance quon a avant de voir limage : il y a toujours quelque chose.

11 I : Théorème de Bayes B. La probabilité de limage sachant la scène et K (la formation de limage). Souvent un modèle physique. Appelée la vraisemblance. La probabilité de la scène avant davoir vu limage (mais avec la connaissance K). Appelée la probabilité a priori. On doit construire des modèles pour tous les deux.

12 I : Les espaces dimages A. Pour nous, une image est une fonction dun domaine vers un espace C. Les signaux acoustiques : N = 1. Les images standard : N = 2. Les images MRI : N = 3. Les séquences vidéo : N = 3 = « ».

13 I : Les espace dimages B. La dimension de C : Images monochromatiques : 1. Images en couleur : 3. Images multi- ou hyper-spectrale : plus de 3. D est envisagé comme plongé dans. Ça veut dire que les notions de géométrie peuvent être appliquées si N > 1. Cest une des raisons pour lesquelles le traitement dimage est beaucoup plus difficile que le traitement des signaux 1D.

14 I : Les espaces de scène : Sémantique. Information sur le monde 3D : Distances et positions des objets dans une photo; Types de végétation dans une image aérienne; Position dune tumeur dans une image médicale ; Géométrie des bâtiments dans un plan. Paramètres de la caméra. Jugements plus subjectifs : Émotion dun visage ; Style darchitecture.

15 I : Les espaces de scène : Mathématique A. Une fonction de D vers un autre espace : Restauration : C D ; Segmentation : L D où L est un ensemble (étiquettes dinterprétation) ; Une région : {0,1} D.

16 I : Les espaces de scène : Mathématique B. Une fonction dun autre espace vers D : Une région : ; Positions et paramètres dobjets: (D x L) n.

17 I : Probabilités sur ces espaces. Lespace dimages est énorme images possibles de 256 x 256 pixels. ~10 80 atomes dans lunivers visible. ~ images pour chaque atome. Une fraction minuscule contient des images de notre monde. La plupart des images sont du bruit. Les probabilités sont fonction de variables dépendantes : les valeurs des pixels. Donc, il faut simplifier.

18 I : Simplification de la probabilité. Les probabilités se simplifient quand quelques variables sont indépendantes les unes, les autres. Les champs de Markov sont une voie (mais pas la seule) pour définir des probabilités simplifiées mais encore utiles.

19 I : Exemple : Indépendance. Si la scène est décrite par une fonction sur D, la probabilité peut se factoriser sur les pixels : Dans ce cas, on peut traiter chaque pixel séparément (problème à une dimension).

20 I : Champs de Markov (MRFs). Un champ de Markov sur un ensemble D est une probabilité sur lespace de fonctions C D de D vers une autre espace C satisfaisant les conditions suivantes. Positivité :.

21 I : Champs de Markov (MRFs). Voisinage : pour chaque point, il y a un sous-ensemble t.q. On peut savoir tout ce qui est possible de la valeur de f p sachant seulement les valeurs des voisins f N(p)-p.

22 I : Interprétation comme un graphe. Un graphe non-orienté G est : Un ensemble V (noeuds); Un sous-ensemble t.q. Etant donné un MRF, on définit un graphe de la façon suivante :

23 Un sous-ensemble est une clique ssi :. On définit comme lensemble de toutes les cliques dans le graphe G. I : Cliques.

24 I : Distributions de Gibbs A Pour une fonction, la probabilité suivante est appelée une distribution de Gibbs:

25 I : Théorème de Hammersley- Clifford Très important parce quil permit la construction facile de MRFs. Pour chaque fonction, est un MRF. Pour chaque MRF Pr, on peut trouver une fonction t.q.. Conclusion: GIBBS = MRF

26 I : Estimées : En Général. Utilité = fonction de coût: Utilité moyenne : Estimée :

27 I : Estimées : MAP. Maximum A Posteriori : ce maximise la probabilité. N.B. Quand C est continu, lestimée MAP nest pas exactement le point plus probable.

28 I : Estimées : MPM. Maximum Posterior Marginal : ce maximise le nombre de pixels corrects = minimiser le nombre de pixels erronés.

29 I : Estimées : Moyenne. Moyenne : minimiser lerreur quadratique moyenne. N.B. C doit être un espace vectoriel.

30 I : Distribution de Gibbs B. U est appelé lénergie. Z est appelé le fonction de partition. Pour une distribution de Gibbs, lestimée MAP prend une forme simple: Cette forme on appèle minimisation dénergie.


Télécharger ppt "Champs de Markov en Vision par Ordinateur. 0 : Quelques Points avant Commencer : Moi. Ian Jermyn. Anglais comme vous lentendez ! Excusez mon français."

Présentations similaires


Annonces Google