La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Traitement dimages : concepts avancés Morphologie mathématique (cas fonctionnel) : – Erosion, dilatation, ouverture et fermeture fonctionnelles, – Filtres.

Présentations similaires


Présentation au sujet: "Traitement dimages : concepts avancés Morphologie mathématique (cas fonctionnel) : – Erosion, dilatation, ouverture et fermeture fonctionnelles, – Filtres."— Transcription de la présentation:

1 Traitement dimages : concepts avancés Morphologie mathématique (cas fonctionnel) : – Erosion, dilatation, ouverture et fermeture fonctionnelles, – Filtres alternés séquentiels, – Ligne de partage des eaux. Classification (approches globales) : – Modèles markoviens, – Estimation de paramètres. Estimation de mouvement : – Cas dun mouvement rigide, – Flot optique.

2 Classification bayésienne dimages Formulation du problème Les images observées correspondent à la réalisation y dun champ aléatoire Y = {Y s, s S}, S ensemble des sites, |S| = pixels, Y s ; un autre champ aléatoire X = {X s, s S}, celui des étiquettes ou labels des classes, dont la réalisation x est cachée, X s, | | = labels ou classes ; Le but de la classification est daccéder à x connaissant y. Avant les modèles markoviens Calcul de la fonction de décision optimale pour estimer x sachant y irréalisable simplifications : Pour tout s S, estimation de x s sachant y s classification aveugle, Pour tout s S, estimation de x s sachant {y s, s V S } classifications contextuelles # de sol. à tester = | | |S| image simple , image télédétection

3 Modèles markoviens Pb : estimer x connaissant y définir : (i) un modèle dattache aux données, i.e. reliant X et Y, ET(ii) un modèle a priori pour X, i.e. favorisant certains types de solutions Modélisation des interactions (locales) entre les sites Définition des interactions locales déf. dun système de voisinage : Et du système de cliques associé, i.e. soit singletons, soit ensembles de sites tous voisins les uns des autres 4-connexité : 8-connexité : Cliques dordre 2 Cliques dordre 3Cliques dordre 4 Ex. : modèles réguliers i.e. favorise pixels voisins de même label

4 Champs de Markov – champs de Gibbs X est un champ de Markov où X est un champ de Gibbs de potentiel associé au système de voisinage V s, s S avec(C ens. cliques) tous les sites sauf s Z constante de normalisation : Z = x exp{-U(x)}

5 pour S fini ou dénombrable, V borné, {x s, s S} discret x s : X est 1 champ de Markov relativement à V ET P(X=x)>0 x |S| X est un champ de Gibbs de potentiel associé à V Doù : en posant Théorème dHammerley-Clifford aucune configuration nest impossible =P(X s =x s,X -s =x -s ) Somme des potentiels des cliques sur le voisinage Ne dépend plus que du voisinage et de ses configurations possibles

6 Tirage de réalisations d1 champ de Gibbs dénergie U(x)/T Algorithme de Metropolis (1953) A partir de x 0 la configuration initiale, Répéter à linfini : x k étant la configuration courante Pour tous les sites s S : –tirer l s selon la loi uniforme dans, –poser x t = x t k, t S:t s, et x s = l s, –calculer U = –si U < 0 alors –sinon : »tirer z selon la loi uniforme dans [0,1] »si z < exp(- U / T), alors

7 Tirage de réalisations d1 champ de Gibbs dénergie U(x)/T Echantillonneur de Gibbs (Geman, 1984) A partir de x 0 la configuration initiale, Répéter à linfini : x k étant la configuration courante Pour tous les sites s S : –poser x t = x t k et x t k+1 = x t k t S:t s, –pour tout i de : »poser x s = i, »calculer p i = –tirer z selon la loi uniforme dans [0,1], –trouver j minimum tel que –poser x s k+1 = j

8 Exemples de champs de Markov Modèles couple (X,Y), modèles triplets Modèle de Potts (Wu, 1982) : 4 ou 8-connexité, | | > 2 Modèle dIsing (1925) : 4 ou 8-connexité, | |=2 | |=3| |=4 (i,j) constant i,j | |=3| |=4 (i,j) variable selon i,j

9 Critères MAP / MPM Marginal Posterior Modes : Ct (x,x*) = où (x s,x s *) = 0 si x s x s *, et (x s,x s ) = 1 Maximum A Posteriori : S x Ss ss x xxyxPyx ' ' *,/minarg 1 A priori critère MPM plus fin que critère MAP En chaque pixel s, maximiser la probabilité P(x s /y) estimer cette probabilité par simulation dun champ de Gibbs : x/x s =x s P(x/y)

10 Distribution A Posteriori Cas dun champ de Markov caché (X,Y) = (X s,Y s ) s S avec |S| lespace des états de X P(X = x,Y = y) = P(Y = y / X = x).P(X = x) Hypothèses supplémentaires : P(Y=y / X=x) = s S P(Y s =y s / X s =x s ) (indép. cond. à X) s S, P(Y s =y s / X s =x s ) > 0 U s 0 (x s,y s )=-ln(P(y s /x s )) avec Constante de normalisation issue de la distribution a priori

11 Exemple de distribution a posteriori Y gaussien conditionnellement aux classes Loi a priori = modèle de Potts (i,j) = P(X=x / Y=y) = P(Y=y / X=x).P(X=x)/P(Y=y) cliques dordre 2

12 Estimation du MAP (I) Recuit simulé (Kirkpatrick, 1983) sur algorithme de Métropolis A partir de x 0 la configuration initiale, et de T la température initiale, Répéter tant que le compteur est > et T 0 : x k étant la config. courante Mettre le compteur à 0 Pour tous les sites s S : –tirer l s selon la loi uniforme dans, –poser x t = x t k, t S:t s, et x s = l s, –calculer U= –si U < 0 alors –sinon : »tirer z selon la loi uniforme dans [0,1] »si z < exp(- U / T), alors –si x s k+1 x s k incrémenter le compteur de 1 T.T Théoriquement, pour assurer convergence vers minimum global, décroissance de T en 1/ln(1+n°iteration) En pratique, décroissance géométrique

13 Estimation du MAP (II) Recuit simulé sur échantillonneur de Gibbs A partir de x 0 la configuration initiale, et de T la température initiale, Répéter tant que le compteur est > et T 0 : x k étant la config. courante Mettre le compteur à 0 Pour tous les sites s S : –poser x t = x t k, et x t k+1 = x t k t S:t s, –Pour chaque i de, »poser x s = i, »calculer p i = –tirer z selon la loi uniforme dans [0,1], –Trouver j minimum tel que –Poser x s k+1 = j, –si x s k+1 x s k incrémenter le compteur de 1 Poser T =.T

14 Estimation du MAP (III) Iterated Conditionnal Modes (Besag, 1974) A partir de x 0 la configuration initiale, Répéter tant que le compteur est > : x k étant la configuration courante Mettre le compteur à 0 Pour tous les sites s S : –poser x t = x t k, et x t k+1 = x t k t S:t s, –Pour chaque i de, »poser x s = i, »calculer u i = –Poser j = argmin i {u i } –Poser x s k+1 = j, –si x s k+1 x s k incrémenter le compteur de 1

15 MAP : exemples de résultats =30 Classification aveugle ICM, =2.5 =60 Classification aveugle ICM, =2.5 SAG, =2.5, it.1860 SAG, =2.5, it.2100 SAM, =2.5, it.1380 SAM, =2.5, it.1640

16 Optimisation par coupes minimales Existence de représentations permettant dobtenir le minimum global rapidement Seulement le cas dénergies représentables sous forme de graphe Minimiser lénergie minimiser la coupe sur le graphe maximiser le flot sur le graphe S T Cut(S,T)=6 Cut(T,S)= /2 1/3 2/2 2/3 2/4 1/1 2/2 3/6 0/3 1/1 Arc saturé

17 2/2 1/3 0/3 2/3 0/4 1/2 0/3 3/6 0/2 1/1 2/2 1/3 2/3 0/4 1/2 2/3 3/6 2/2 1/1 Algorithme de Ford & Fulkerson (1962) S T 0/2 0/3 0/4 0/2 0/3 0/6 0/2 0/1 2/2 0/3 2/3 0/4 0/2 0/3 2/6 0/2 0/1 2/2 1/3 2/3 0/4 1/2 2/3 3/6 2/2 1/1 Etape 1 : Saturation ad hoc des chemins de S vers T Etape 2 : Eventuelle remise en cause des choix déjà faits recherche dune chaîne améliorante * Chaîne améliorante de 1=min(6-3,2-1,3-2) 2/2 1/3 3/3 2/3 0/4 2/2 2/3 4/6 2/2 1/1 2/2 1/3 3/3 2/3 0/4 2/2 2/3 4/6 2/2 1/1

18 Cas dimages binaires Graphe : Nœuds = {pixels s de limage} + source S (x s =0) + puits T (x s =1) Arcs entre S et s : capacité = Arcs entre T et s : capacité = Arcs entre pixels s et t voisins : capacité = © Greig et al., 1989 Cas dun modèle dIsing :

19 Résultats pour limage blobs avec bruit gaussien =60 Optimisation ICM Résultat final Classification aveugle Résultat arc vers S ou T saturé Modèle de Potts =20, 4-connexité Optimisation Graph-Cut

20 Seuillage à hystérésis : interprétat° markovienne ysys 0, 0 < 1 3 < < 2 /n connex, et t l t h Seuillage avec hystérésis modèle markovien suivant :

21 Modélisation de relations spatiales plus haut niveau Cas de relations spatiales entre objets souvent ad hoc : a priori connu sur les solutions recherchées ex. dapplication : Détection des couples nuages-ombres Modèles markoviens hiérarchiques regroupement de primitives de plus en plus haut niveau soit apprentissage sur des bases de données (e.g. réseaux de neurones, svm, etc.), soit ad hoc exemple dapplication : Détection des marquages routiers

22 Ex. dapplication : détection des nuages et ombres en imagerie satellitaire optique (I) Problème : Données dentrée : régions étiquettées nuage ou brume, l c m, ou ombre, l sh Données sortie : régions étiquettées nuage, c, brume, m, ombre, sh ou autre, o A priori : A tout nuage correspond une ombre ressemblante de direction donnée Modélisation : Graphe Markovien avec : Noeuds = régions, Arcs entre régions alignées dans la direction de lombre β shadow sensor sun cloud projection cloud h agag bgbg b g. sin a g. sin a g. cos b g. cos On sait calculer la direction de la position attendue de lombre sur limage connaissant celle du nuage (et les paramètres dacquisition : azimut, angle du soleil, angle dincidence et de lorbite /2 ) :

23 Ex. dapplication : détection des nuages et ombres en imagerie satellitaire optique (II) ysys c m and true s c m and false true? noyesnoyesnoyes U s (y s |x s = ) + = 0 +A+A A |V s | max. >0 +A+A U s (y s |x s = ) +A+A A |V s | max. >0+ = 0 +A+A A |V s | max. >0 U s (y s |x s = ) +A+A+A+A+A+A+A+A A+A+A+A Valeurs de lénergie locale associée aux différents cas dattache aux données et de voisinage; les cellules grises indiquent le minimum dans le cas où A>> > >0 Critère pour séparer la brume des nuages Critère pour valider ladéquation de forme entre un nuage et son ombre supposée Terme dattache aux données Terme dinteractions des objets

24 Classification MRF à 3 niveaux : du pixel à l'objet. à chaque niveau, 1 MRF modélise les informations a priori sur les interactions –Niveau pixel : interactions entre les pixels voisins –Niveau composantes connexes : interactions entre cc voisines alignées –Niveau objet : relations spatiales (gauche, droite, centre) entre les objets Image des niveaux de grisImage binaire des pixels susceptibles dêtre un marquage routier Image des composantes connexes (cc) Image des objets (formés par des cc alignées) Image des labels: gris = fausse alarme, vert = marquage droite, jaune =marquage gauche Etape 1 Étiquettage des composantes connexes Etape 3 Etape 2 Ex. applicatif : détection des marquages routiers du pixel à lobjet

25 Est-ce le pixel s appartient à un marquage au sol ou non ? Classes : {, } modélisées par distrib. sigmoïdes Terme dattache aux données : Terme de régularisation : largeur des marquages constante Ex. applicatif : détection des marquages routiers niveau pixel

26 Question : A quel objet appartient la composante connexe i Classes : les objets labelisés { o1,..., oi,...} Terme dattache aux données constant (pas da priori) Terme de régularisation : favorise couplage entre cc alignées et spatialement proches Only 1 principal axis direction is well-defined compare it to the couple-barycentre direction 2 principal axis directions are well-defined compare them to the couple-barycentre direction, : principal axis directions :couple-barycentre direction Due to pixel sampling, principal axis direction is not well-defined consider 3 cc at once, & compare the 3 couple-barycentre directions. Ex. applicatif : détection des marquages routiers niveau composante connexe

27 Question : de quel type de marquage sagit-il ? Classes : { rL, rR, rM, Dr, Cr, pd, other, Nmk,} Terme dattache aux données exploite les caractéristiques de forme de lobjet (e.g. rapport entre la longueur du grand axe et la longueur du petit axe) Terme de régularisation exploite la présence de marquages de même type ou la localisation des marquages dautres classes Ex. applicatif : détection des marquages routiers niveau objet Passage piétons, ligne continus, ligne discontinue, ligne gauche ligne droite, ligne centrale

28 Estimation de paramètres Dans le cas général, les paramètres à estimer sont les paramètres de la distribution a priori P(X), noté, et ceux de la distribution de Y conditionnellement à X, notés : = (, ). On distingue le cas de données complètes et celui de données incomplètes selon que lon ait accès ou non à au moins une réalisation x de X.

29 Cas de données complètes Soit x obs réalisation issue de la distribution P (X), Lestimateur maximum de vraisemblance donne avec P (X) = 1/Z( ).exp{-U (x)}, Pb : on ne sait pas calculer la constante Z( ) 1 ère sol.: approximation par le maximum de pseudo-vraisemblance :

30 Cas de données complètes 2 ème sol.: « estimateur empirique » Calculer la fréquence dapparition de chaque classe conditionnellement à toutes les configurations de voisinage observées sur les données complètes, et recherche qui ajuste ces fréquences aux lois conditionnelles Si en outre on suppose que U est linéaire en, alors U (x) =. (x), Z( ) =, la log- vraisemblance est concave et il suffit donc dannuler son gradient par rapport à, soit donc à résoudre :

31 Gradient stochastique Soit à résoudre (avec = ) Or 1 seule solution : Gradient stochastique (Younes, 1988) À partir de 0, x (0) arbitraires, répéter à linfini (ou jusquà vérification dun critère darrêt) - tirer x (k+1) issu de la distribution de Gibbs correspondant à k - actualiser k+1 : où K V constante (rq : et ) (x obs ) (X)]

32 Cas de données incomplètes Soit y obs une réalisation issue de la distribution P (X,Y), Lestimateur maximum de vraisemblance donne recherche du maximum de log-vraisemblance annuler son gradient par rapport à = (, ), soit donc à résoudre itérativement

33 Expectation-Maximization Formules de ré-estimation des paramètres Loi conditionnelle (cas gaussien) : Loi a priori : (cas aveugle : trivial) cas U linéaire en : cas pseudo-vraisemblance () :

34 EM Gibbsien Maximisation de la pseudo-vraisemblance (Chalmond,1989) : On note i,j = P(X s = i / V s de type j) A partir des paramètres initiaux, répéter jusquà convergence : –Tirage des échantillons x(1), x(2), …, x(p) de P(x / y obs, (k) ) grâce à léchantillonneur de Gibbs, –Approximation des espérances : –Remise à jour des paramètres : # de pixels / x s =i et V s =j dans la réalisation q # de fois où x s =i dans les réalisations considérées r 1 ers tirages considérés comme trop dépendants de linitialisat° de léchantillonneur de Gibbs

35 Iterative Conditional Estimation (Pieczynski, 1994) Principe : Algorithme A partir des paramètres initiaux, répéter jusquà convergence : –Tirage des échantillons x(1), x(2), …, x(p) de P(x / y obs, (k) ) grâce à léchantillonneur de Gibbs, –Estimation des paramètres pour chaque échantillon q [r+1,…p] : –Remise à jour des paramètres : Espérance conditionnelle = meilleur estimateur au sens de la minimisation de lerreur quadratique 0 ou 1 moyenne des y s / x s =i dans la réalisation q moyennage des estimations faites sur chaque réalisation

36 Autres approches « Segmentation courante » : avec x (k) résultat de la classification de y obs sur la base de (k) risque de divergence Algorithme de Lakshmanan & Derin (1989) Au cours de la décroissante de la température du recuit simulé (classification MAP), ré- estimation à échéance régulière de passage dune procédure ICE à une procédure « segmentation courante ». Si une classe a une proba. a priori + faible, elle va être défavorisée dans la classification, doù une proba. encore + faible à lit. suivante (en particulier si cette proba. + faible provient dune dissymétrie de la fct de coût, rien ne justifie quelle soit encore + pénalisée Temp. élevée grand # de réalisations différentes Temp. faible réalisations toutes quasi-identiques

37 Bibliographie H. Maître, Le traitement des images, Hermès éditions. J.-P. Cocquerez & S. Philipp, Analyse dimages : filtrage et segmentation, Masson éditions. S. Bres, J.-M. Jolion & F. Lebourgeois, Traitement et analyse des images numériques, Hermès éditions.


Télécharger ppt "Traitement dimages : concepts avancés Morphologie mathématique (cas fonctionnel) : – Erosion, dilatation, ouverture et fermeture fonctionnelles, – Filtres."

Présentations similaires


Annonces Google