La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Segmentation dimages couleur ou multispectrales par analyse dhistogrammes multidimensionnels Sié OUATTARA (06-01-2009) Directeur de thèse : Bertrand VIGOUROUX.

Présentations similaires


Présentation au sujet: "Segmentation dimages couleur ou multispectrales par analyse dhistogrammes multidimensionnels Sié OUATTARA (06-01-2009) Directeur de thèse : Bertrand VIGOUROUX."— Transcription de la présentation:

1 Segmentation dimages couleur ou multispectrales par analyse dhistogrammes multidimensionnels Sié OUATTARA ( ) Directeur de thèse : Bertrand VIGOUROUX Co-encadrant : Alain CLEMENT Doctorant en traitement dimage et signal au LISA 1

2 PLAN Contexte du travail Problématique Objectifs Etat de lart sur la segmentation dimages Etat de lart sur lévaluation de la segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 2

3 Contexte du travail Problématique Objectifs Etat de lart sur la segmentation dimages Etat de lart sur lévaluation de la segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 3

4 Traitement et analyse dimages Science pluridisciplinaire (physique, électronique, mathématique et informatique) Contribution dans divers domaines (médical, robotique, télédétection, …) 4

5 Nature des images à segmenter et analyser (aspect vectoriel) Plan R Plan V Plan B Plans ( R,V,B) Plan 1 House Plans ( 1,2,3) Plans ( 4,5,6) Plans ( 7,8,9) M4 (9D) 5

6 Cadre des travaux Continuité de certains travaux entrepris au LISA Analyse des histogrammes multidimensionnels (nD), n2 Histogramme nD compact Segmentation dimages couleur ou multispectrales (images multicomposantes) Travaux limités en général à lanalyse dhistogrammes 2D Extension de la segmentation à lanalyse d histogrammes nD 6

7 Contexte du travail Problématique Objectifs Etat de lart sur la segmentation dimages Etat de lart sur lévaluation de la segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 7

8 Travaux (non paramétriques) : Limités généralement a lanalyse des histogrammes 2D ( non paramétrique ) [Clément et Vigouroux, 2003] (Plans RG); [Lezoray, 2003] combinaison de cartes de segmentation (RG,RB,GB) par LPE, etc. - Non prise en compte de la corrélation entre les plans - Choix a priori des plans, réduction du nombre de plans - Modes des histogrammes marginaux diffèrent des modes des histogrammes nD Peu de travaux sur lanalyse dhistogrammes nD non paramétriques ( n3) Méthodes destimation de noyaux : [Gillet, 2001 ]; [Comaniciu et al., 2002]; etc. - (1) Grand volume de données, (2) Coût de traitement élevé Aspect diffus des histogrammes nD Influence sur la qualité des résultats des méthodes de segmentation quand n augmente. Nombre de classes élevé et donc problème de pertinences des classes construites Difficulté de traitement de linformation redondante 8

9 Contexte du travail Problématique Objectifs Etat de lart sur la segmentation dimages Etat de lart sur lévaluation de la segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 9

10 Objectif global Mise en œuvre dune méthode de segmentation dimages couleur ou multispectrales par analyse dhistogrammes nD (n>=3). Objectifs spécifiques Analyse des histogrammes nD ( n>=2) Etiquetage en composantes connexes (ECC) des histogrammes nD Réaliser une méthode de classification optimale à stratégie vectorielle en limitant la sur-segmentation Evaluation de la segmentation 10

11 PLAN Contexte du travail Objectifs Problématique Etat de lart de la segmentation dimages Etat de lart de lévaluation de la segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 11

12 Etat de lart Définitions Stratégies de segmentation Approches de segmentation Méthodes de classification Choix dune métrique et dun espace couleur Conclusion partielle 12

13 Définitions Segmentation dimages: processus de décomposition dune image en régions connexes ayant une homogénéité selon un critère, par exemple la couleur, la texture, etc. Lunion de ces régions constitue limage. Cette définition nimpose pas lunicité de la segmentation Classification: étape préalable à la segmentation qui consiste à regrouper en différentes classes les pixels ayant des caractéristiques similaires (ex : couleur). Classification supervisée: classification intégrant des connaissances a priori de limage ( ex: germes ou nombre de classes) Classification non supervisée: classification en aveugle (ne nécessite aucune connaissance a priori de limage) Métrique: mesure de ressemblance entre deux éléments de limage 13

14 Etat de lart Définitions Stratégies de segmentation Approches de segmentation Méthodes de classification Choix dune métrique et dun espace couleur Conclusion partielle 14

15 Stratégies de segmentation Approche marginale opère une segmentation sur chaque composante de limage puis fusionne les cartes de segmentation en une seule. Approche bi-marginale segmente les couples de plans ( ex : RG, RB, GB dans lespace RVB ) puis fusionne les cartes de segmentation. Approche scalaire fusionne dabord les composantes en une seule puis la segmente. Approche par réduction du nombre de plans consiste à choisir dabord un nombre de composantes a priori ou obtenu par une méthode de réduction despace ( ACP, … ) puis réalise la segmentation. 15

16 Stratégies de segmentation Approche semi-vectorielle ne prend pas en compte toute la corrélation entre les composantes de limage. Rapide en temps de calcul. Approche vectorielle segmente directement limage en considérant une information vectorielle ( histogramme nD ). Prend en compte la corrélation totale entre les plans. Couteux en temps de calcul Approche vectorielle avec requantification la résolution tonale (Q) est réduite à q (q

17 Etat de lart Définitions Stratégies de segmentation Approches de segmentation Méthodes de classification Choix dune métrique et dun espace couleur Conclusion partielle 17

18 Approches de segmentions Deux grandes approches : Approches régions Recherche les zones dans limage selon un critère dhomogénéité. Deux méthodes : Méthodes spatiales: partitionnement en régions dans le plan image en tenant compte de linformation attribut du pixel (couleur, …), par ex. croissance de régions, division- fusion, etc. Méthodes de classification pixellaires: regroupement des méthodes de partitionnement basées uniquement sur les attributs des pixels (couleur,...). Par ex. clustering, analyse dhistogrammes, etc. Approches contours extraction des bords entre objets en se basant sur la recherche de discontinuités ( méthodes dérivatives, morphologiques, …). 18

19 Etat de lart Définitions Stratégies de segmentation Approches de segmentation Méthodes de classification Choix dun métrique et dun espace couleur Conclusion partielle 19

20 Méthodes de classification classification nette: classification dans laquelle un pixel est affecté à une classe dont il est le plus proche selon un critère de distance ou de similarité. classification floue: classification réalisant un partitionnent fou, cest-à-dire un pixel appartient à une classe avec un degré dappartenance, cette notion découle de la théorie des sous-ensembles flous que nous verrons dans une autre section. Méthodes de classification Deux grandes méthodes : Les clusterings : fondées sur le principe que les pixels dune même classes possèdent les mêmes caractéristiques radiométriques ( couleurs, …), ces techniques peuvent être nettes ou floues et nécessite la connaissance a priori du nombre de classes. Exemple de méthodes : Centres mobiles [Forgy, 1965], K-Means [Hartigan, 1975], ISODATA [Takahashi et al., 1995], Nuées dynamiques [Diday, 1982], FCM [Bezdeck et al., 1984]. 20

21 Méthodes de classification Méthodes de classification (suite) Analyse dhistogrammes: considère que la distribution des spels de lhistogramme nD forme des modes de forte densité correspondant aux classes présentes. Inconvenients : Une trop grande quantité de données des histogrammes nD à manipuler Un coup élevé en temps de calcul Stratégies des méthodes d analyse dhistogrammes nD méthodes paramétriques : elles expriment le problème de classification en termes probabilistes ou la classe est sensée suivre une distribution spécifique dans lespace nD, classiquement une gaussienne. [Postaire, 1983] [Akaho, 1995] méthodes non paramétriques : elles ne font référence à aucun modèle probabiliste et ces approches reposent sur la détection des modes. [Fukunaga et al, 1975], [Vasseur et Postaire, 10], [ Ouattara et Clément, 2008] 21

22 Méthodes de classification Quelques travaux bibliographiques sur lanalyse dhistogramme Recherche de modes ( pics) par : estimation de noyaux par approches paramétrique et non paramétrique (Mean-shift) recherches de minimas (LPE ) seuillage basé sur la minimisation dune fonctionnelle ([Otsu, 1979]). Quelques travaux dapproches par seuillages AuteurAnnéestratégieTypeFonctionnelle Fisher19581Dmultiénergie intra -classe Otsu19791Dbinaireénergie inter-classe Parker19961Dmultientropie Rosin20011Dmultimodes Houladj et al.20072Dbinaireentropie Travaux de segmentation par seuillage 22

23 Méthodes de classification Quelques travaux bibliographiques sur lanalyse dhistogramme Travaux dapproches par recherche de modes AuteurAnnéestratégie Ohlander et al.19781D-1D-1D Tominaga19901D-1D-1D Lim and Lee19901D-1D-1D Schettini19931D-1D-1D Hemming et Rath20011D Lezoray20031D-1D-1D Travaux de segmentation par recherche de modes ou pics 23

24 Méthodes de classification Quelques travaux bibliographiques sur lanalyse dhistogramme Travaux dapproches par recherche de modes ou pics (suite) AuteurAnnéeStratégieTechnique Xuan et Fisher20003Dquantification- G.mixtures Kurugolu et al.20012D-2D-2Dmodes Clément et Vigouroux20022Dmodes Lezoray et Charrier20042D-2D-2DLPE Mclahan et Peel2000nDFinite Mixtures Models Comaniciu2002nDMean shift Ouattara et Clément2008nDmodes Travaux de segmentation par recherche de modes ou pics 24

25 Etat de lart Stratégies de segmentation Approches de segmentation Méthodes de classification Choix dune métrique et dun espace couleur Conclusion partielle 25

26 Choix dune métrique et dun espace couleur Choix dune métrique influence sur les résultats des méthodes de segmentation (ex : euclidienne, Mahalanobis, Tchebychev, etc.). pas de métrique universelle en segmentation couleur, difficulté à différencier des couleurs proches. Nous utiliserons la métrique euclidienne. Choix dun espace couleur dépend de la méthode envisagée, de la nature des images et du résultat recherché. pas de meilleur espace couleur pour la segmentation pour tout type dimages [Liu et Yang,1994]. Il est conseillé de segmenter dans lespace initial dacquisition. 26

27 Etat de lart Stratégies de segmentation Approches de segmentation Méthodes de classification nette et floue Choix dun métrique et dun espace couleur Conclusion partielle 27

28 Conclusion partielle La classification ne répond pas à tous types de problèmes. On peut adjoindre une étape de traitement spatial: cest la classification spatio-colorimétrique. Les méthodes de clustering sont rapides mais leur inconvénient réside dans le fait que le résultat de segmentation dépend de linitialisation. Les méthodes paramétriques sont rapides mais présentent linconvénient dun a priori sur la distribution statistique des classes. Les méthodes semi-vectorielles et de réduction despace sont rapides mais présentent linconvénient de ne pas prendre en considération toute la corrélation entre les composantes de limage. Les méthodes proposées sont non paramétriques et vectorielles 28

29 PLAN Contexte du travail Objectifs Problématique Généralités Etat de lart de la segmentation dimages Etat de lart de lévaluation de la segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 29

30 Etat de lart Méthodes dévaluation de segmentation Analyse des Méthodes dévaluation 30

31 Méthodes dévaluation de segmentation Généralités Deux types de stratégies : [Chabrier, 2004] [Philipp-Pholiguet et Guigues, 2006]. Les méthodes supervisées : évaluation des segmentations par rapport à une segmentation de référence ou vérité terrain. Mesure de [Vinet, 1991]. Les méthodes non supervisées : classification des segmentations par ordre de pertinence grâce à des mesures de qualité sans connaissance a priori de limage. adaptées aux images naturelles. Mesures de [Levine et Nazif, 1985], [Liu et Yang, 1994], [Borsotti et al., 1998], [Zeboudj, 1988], [Rosenberger, 1999]. Remarque : Des méthodes de détermination du nombre de classes optimal peuvent être exploitées pour lévaluation 31

32 Méthodes dévaluation de segmentation Méthodes supervisées Mesure de Vinet [1991] A : nombre total de pixel de limage, Ck : couplage optimal entre régions de limage segmentée et la segmentation de référence et K : nombre de régions de limage segmentée Méthodes non supervisées Critère duniformité intra-région de Levine et Nazif [1985]: Mesure de Levine-Nazif = où σi est la variance de la région i et C une constante de normalisation qui pourrait être la variance maximale de limage N.B : le complément à 1 de cette valeur est calculée pour évaluer la segmentation 32

33 Méthodes dévaluation de segmentation Méthodes non supervisées (suite) Mesure de Borsotti [Borsotti et al.,1998] N(Ai) : nombre de régions ayant une aire égale à Ai A : nombre total de pixel de limage, e i ² : variance de la région i de limage segmentée et N: nombre de régions de limage segmentée Critère de Rosenberger (F(I)) [Chabrier et al., 2004]: : Disparité intra-région ; : Disparité inter-région 33

34 Méthodes dévaluation de segmentation Méthodes non supervisées (suite) Critère de Zeboudj [Cocquerez et Philipp, 1995] Ai : nombre de pixel dune région Ri A : nombre total de pixels de limage C(Ri) : contraste dune région Ri CI(i) : contraste interne dune région Ri CE(i) : contraste externe dune région Ri 34

35 Etat de lart Méthodes dévaluation de segmentation Analyse des Méthodes dévaluation 35

36 Analyse des méthodes dévaluation Le critère de : Levine et Nazif : favorise les segmentations à régions homogènes indépendamment de laire des régions Borsotti : favorise aussi les segmentations à régions homogènes en privilégiant légèrement les régions à grands effectifs et pénalise les segmentations ayant des régions à effectifs égaux et la sur-segmentation Rosenberger : favorise les segmentations à régions homogènes bien séparées, aussi des segmentations à régions proches à grand effectifs et tient compte de linformation spatiale. Zeboudj : favorise des segmentations à régions homogènes et bien séparées et tient compte de linformation spatiale N.B : Retenons le critère de Levine et de Nazif (simple et adapté à la classification) 36

37 Analyse des méthodes dévaluation Application aux méthodes dévaluation Choix de K-means pour étudier le comportement des méthodes dévaluation Test sur des images de Forsythia au nombre de 24 dont on a les vérités terrain Principe de K-means Lalgorithme k-means est en 4 étapes : 1.Choisir k objets formant ainsi k clusters 2.(Ré)affecter chaque objet O au cluster C i de centre M i tel que distance(O,M i ) est minimal 3.Recalculer M i de chaque cluster (le barycentre) et lénergie E 4.Aller à létape 2 si non stabilisation de E 37

38 Méthodes dévaluation de segmentation Application aux méthodes dévaluation IMG01IMG05IMG08 IMG24 Seg_01_ManSeg_05_ManSeg_08_ManSeg_24_Man Seg_01_Kmeans Seg_05_KmeansSeg_08_KmeansSeg_24_Kmeans 38

39 Analyse des méthodes dévaluation Application aux méthodes dévaluation (suite) Image Evaluation non supervisée Segmentation manuelle Evaluation non supervisée Segmentation K-means LevineBorsottiZeboudjRosenbergerLevineBorsottiZeboudjRosenberger IMG01 0,9400,31400,4930,9590,20600,475 IMG05 0,9410,2920,4600,4580,9610,1910,3670,441 IMG08 0,9370,3080,4490,4570,9570,2030,3380,441 IMG24 0,9540,22100,5350,9660,1580,3620,453 Evaluation non supervisée de segmentation manuelle et Kmeans du Forsythia 39

40 Méthodes dévaluation de segmentation Conclusion partielle Les segmentations K-means et manuelle sont pertinentes variablement dun critère à lautre. Le critère de Zeboudj et Rosenberger favorise la segmentation manuelle Le critère de Levine et Borsotti favorise la segmentation par K-means Conséquences Le choix de la méthode dévaluation dépend du but visé Pas de méthode universelle de segmentation Pas dunicité du partitionnement dune image, 40

41 Contexte du travail Objectifs Problématique Généralités Etat de lart de la segmentation dimages Etat de lart de lévaluation de la segmentation Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 41

42 Méthodes de segmentation proposées Histogrammes nD compact ECC classique dhistogrammes nD compact Méthode de classification nD Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Méthode de classification nD par requantification Résistance des méthodes de segmentation nD au bruit 42

43 Méthodes de segmentation proposées Histogrammes nD compact ECC classique dhistogrammes nD compact Méthode de classification nD Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Méthode de classification nD par requantification Résistance des méthodes de segmentation nD au bruit 43

44 Histogrammes nD compact un histogramme : graphique statistique permettant de représenter la distribution des spels ( niveaux de gris, couleur, …) cest-à-dire loccurrence de chaque spel. Dun point de vue algorithmique lhistogramme est manipulé dans une structure de données sous forme de tableau. Exemple de structure de codage dhistogramme NG : Niveaux de Gris E : Effectif R : Rouge V : Vert B : Bleu NGE RVBE Histogramme 1D Histogramme couleur (3D) 44

45 Histogrammes nD compact Différentes structures dhistogrammes nD Histogramme de Thomas [1991] Obtenu à partir des 5 bits de poids forts de chaque composante de RGB (taille: 32 X 32 X 32). Histogramme de Xiang [1997] Une liste (R,G) code les valeurs de bleu prises par les pixels de limage et le nombre de pixels RGB. Histogramme de Balasubramania [1991] Similaire à celui de Xiang mais les valeurs de B sont stockées dans un arbre Histogramme nD compact [Clément et Vigouroux, 2001] Similaire à celui de Thomas. Réduit de façon drastique lespace mémoire occupé par lhistogramme sans perte en stockant uniquement les spels (ex: couleur) réellement présents dans limage. 45

46 Histogrammes nD compact Exemple dun histogramme 3D compact image synthétique couleur [synt_gdr ]( 256x256), résolution tonale 24 bits. E RVB Image synt_gdr et son histogramme 3D compact 46

47 Histogrammes nD compact Avantage de Histogramme nD compact Réduit le volume de lhistogramme nD classique dun facteur X Pour une image multi-composantes de dimension MxNxP ( P étant le nombre de plans), C : nombre de cellules réellement occupées MxN E : nombre de bits nécessaire pour coder une cellule log2(MxN) Q : résolution tonale de chaque plan Volume Histogramme nD Synt_gr(256x256x3)House(256x256x3)M4(838x762x9) classique 128 Mo 3, Mo compact 0,029 Ko0,129 Mo1,22 Mo 47

48 Méthodes de segmentation proposées Histogrammes nD compact ECC classique dhistogrammes nD compact Méthode de classification nD Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Méthode de classification nD par requantification Résistance des méthodes de segmentation nD au bruit 48

49 ECC classique dhistogrammes nD compact Bibliographie (deux concepts) L ECC réalisé sur des images binaires 2D puis sur des images nD binaires [ Haralick et al.,1992] [Sedgewick et Robert, 1998] En théorie des graphes : recherche de composantes connexes (CC) réalisée mais pas sur le concept détiquetage. [Mény et al., 2005] [Cogis et Robert, 2003] Dans cette section nous avons opté pour le concept dECC dans les images binaires 49

50 ECC classique dhistogrammes nD compact Composante connexe: correspond mathématiquement à une classe déquivalence Un voisinage : relation qui lie des éléments dun ensemble E, on considéra que notre relation de voisinage définit une relation déquivalence. Notion de voisinage (connexité) spatial dans les images binaires La notion de voisinage a été généralisée par Rosenfeld [1979] dans un espace topologique nD discret. Soit 2 voisinages en 2D définissant deux types de connexité. 4-voisins 2D 8-voisins ou full-connexité 50

51 ECC classique dhistogrammes nD compact Notion de voisinage spatial et de connexité spatiale dans les images binaires Utilisation de la full-connexité car adaptée à la recherche dobjets dans les images binaires. Elle sera adaptée à lhistogrammes nD compact pour létiquetage. En 3D, la full-connexité correspond à un 26 voisinage En nD, la full-connexité correspond à 3 n -1-voisins 51

52 ECC classique dhistogrammes nD compact Exemple dECC dune image 2D binaire (4 voisinage) Les objets sont en blanc et le fond en noir Image à une (1) Composante 4-connexe NB : Le type de connexité influence le nombre de Composantes Connexes (CC) et leur forme géométrique (a) Image binaire 2D (b) régions connexes étiquettesreprésentantspopulation (c) tableau déquivalence final 52

53 ECC classique dhistogrammes nD compact Adaptation de lECC à lhistogramme nD compact (Hc) Lillustration est faite avec un histogramme 2D compact comme illustré ci-dessous Un algorithme récursif permet de générer les voisins dun spel ( (i,j)) puis de rechercher ses voisins dans lHc nD afin de déduire les étiquettes de ses voisins. Lhistogramme compact nD est parcouru du haut vers le bas. Plan IPlan J 00 …… i-1j-1 i-1j j +1 …… ij-1 ij …… 2 Q -1 Axe J Axe I (i-1,j-1)(i-1,j)(i-1,j+1) (i,j-1)(i,j) 53

54 ECC classique dhistogrammes nD compact Complexité maximale de l algorithmique dECC (MaxHc) n : nombre de spels de lhistogramme nD compact P : nombre de plans de limage Q : résolution tonale de chaque plan de limage Max Hc (n) = (k(n-k)) avec k = (2 p.Q -1)/(1-2 Q ), Si n > k Max Hc (n) = ( n 2 ) avec k = (2 p.Q -1)/(1-2 Q ), Si n k 54

55 ECC classique dhistogrammes nD compact ECC de quelques images naturelles Des images couleur et multi-spectrales de la base de données images du Gdr-isis et de luniversité du sud de Californie M4_9D Résolution=838x762x9 House Résolution=256x256 Peppers Résolution=512x512 Mandrill Résolution=512x512 55

56 ECC classique dhistogrammes nD compact ECC de quelques images naturelles Nombre de composantes des Histogrammes nD compact des images précédentes Nom image Nombre de spels histogramme nD Nombre de composantes connexes(CC) M4_9D M4_6D M4_3D House Peppers Mandrill

57 ECC classique dhistogrammes nD compact Etude morphologique des histogrammes nD compact Influence du nombre de plans n sur la distribution de lhistogramme nD compact Variation du nombre de spels de lhistogramme nD compact en fonction du nombre de plans 57

58 ECC classique dhistogrammes nD compact Etude morphologique des histogrammes nD compact Influence du nombre de plans n sur la distribution de lhistogramme nD compact Variation du nombre de spels de lhistogramme nD de limage ORGE en fonction de n (1 à 10) 58

59 ECC classique dhistogrammes nD compact Etude morphologique des histogrammes nD compact Influence du nombre de plans n sur la distribution de lhistogramme nD compact Variation du nombre de spels des histogrammes nD de limage M4 en fonction de n (1 à 9) 59

60 ECC classique dhistogrammes nD compact Etude morphologique des histogrammes nD compact Influence du nombre de plans n sur la distribution lhistogramme nD compact Variation du NED de lhistogramme nD compact en fonction du nombre de plans 60

61 ECC classique dhistogrammes nD compact Etude morphologique des histogrammes nD compact Influence du nombre de plans n sur le nombre de CC de lhistogramme nD compact Variation du nombre de composantes connexes (CC) quand n varie dimages multispectrales 61

62 ECC classique dhistogrammes nD compact Etude morphologique des histogrammes nD compact Influence du nombre de plans n sur le nombre de CC de lhistogramme nD compact Variation de leffectif des composantes connexes quand n varie de M4 62

63 ECC classique dhistogrammes nD compact Etude morphologique des histogrammes nD compact Bilan sur la morphologie des histogrammes nD compact Quand n croît : le nombre des spels augmente et loccurrence des spels diminue pour tendre vers 1. lhistogramme nD saplatit géométriquement Lhistogramme nD compact à effectifs compact (1 à NED) fournit géométriquement les mêmes modes que lhistogramme nD compact Quand n croît le nombre de composantes connnexes (CC) de Hc augmente considérablement les effectifs des composantes connexes diminuent en général lintégration dun voisinage flou ou dune similarité floue entre spels dans le processus dECC (connectivité floue) améliore la qualité de sélection des meilleurs pics et limite la sur-segmentation. 63

64 Méthodes de segmentation proposées Histogrammes nD compact ECC classique dhistogrammes nD compact Méthode de classification nD Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Méthode de classification nD par requantification Résistance des méthodes de segmentation nD au bruit 64

65 Méthode de classification nD Principe de la classification nD (ImSegHier_nD) Ce modèle repose sur: lhistogramme compact nD à effectifs compacts (1 à NED). le choix dun seuil deffectif S qui impose le nombre de classes. lextraction des pics est basée sur lalgorithme dECC Entourés dun cercle : les feuilles ou pics retenus En rouge : les nœuds construits En noir : branches explorées et pics non retenus à cause de leffectif

66 Méthode de classification nD Comparaison des résultats de ImSegHier_nD avec K-means Quelques résultats de segmentation Synt_Gdr Seg1_ImSegHier_3D Je veux 6 classes ? Seg2_Kmeans_3D - Même résultatRGB Effectif(%)06,76 13,81 68,80 02,98 1,90 5,75 66

67 Méthode de classification nD Quelques résultats de segmentation (suite) Synt_RayonDispersion Seg1_ImSegHier_3D Je veux 6 classes ? Seg2_Kmeans_3D - Résultats différentsRGB Effectif(%)06,76 13,81 32,04 01,07 0,76 1,22 0,46 33,25 2,98 1,90 5,75 67

68 Méthode de classification nD Quelques résultats de segmentation (suite) Synt1ou 3_sieRGB Effectif(%) ImSegHier_3D ne peut pas fournir 2 classes - k-means fournie les 2 classes visuellement évidentes Je veux 2 classes ? Seg1_ImSegHier_3D Impossible Seg2_Kmeans_3D 68

69 Méthode de classification nD Quelques résultats de segmentation (suite) Synt2009_sieRGB Effectif(%)32, , ,8750 Je veux 2 classes ? Seg1_ImSegHier_3DSeg2_Kmeans_3D - Résultats différents 69

70 Quelques résultats de segmentation (suite) M4(9D) Seg1_ImSegHier_9D (8 classes) IRM(4D)HOUSEMANDRILL Seg1_ImSegHier_4D (8 classes) Seg1_ImSegHier_3D (5 classes) Seg1_ImSegHier_3D (8 classes) Seg2_Kmeans_9D (8 classes) Seg2_Kmeans_4D (8 classes) Seg2_Kmeans_3D (5 classes) Seg2_Kmeans_3D (8 classes) 70

71 Méthode de classification nD Quelques résultats de segmentation (suite) IMG01IMG05IMG08 IMG24 Seg_01_ManSeg_05_ManSeg_08_ManSeg_24_Man Seg1_01_ImgSegHier Seg1_05_ImSegHierSeg1_08_ImSegHierSeg1_24_ImSegHier 71

72 Evaluation des résultats de segmentation de ImSegHier_nD Nom image Critère de Levine et Nazif (complément) ImSegHier_nDK-means Synt_Gdr 11 Synt_RayonDispersion 0,99950,9972 Synt1ou3 impossible1 Synt2009 0,81611 House 0,96980,9553 Mandrill 0,89710,9192 IRM 0,92770,8927 M4 0,86080,8669 Evaluation non supervisée de la méthode ImSeghier_nD 72

73 Evaluation des résultats de segmentation de ImSegHier_nD Bilan de lévaluation ImSeghier_nD donne de meilleurs résultats pour les 24 images de Forsythia ImsegHier_nD moins satisfaisant en évaluation non supervisée Nous proposons : (1) intégration de voisinage flou, (2) la requantification Nom image Critère de Vinet ImSegHier_nDK-means Forsythia ( IMG01) 05,78%08,43% Forsythia ( IMG05) 05,46%09,84% Forsythia ( IMG08) 05,46%10,43% Forsythia ( IMG24) 04,19%09,44% Evaluation supervisée de la méthode ImSeghier_nD 73

74 Méthodes de segmentation proposées Justification des approches Histogrammes nD compact ECC classique dhistogrammes nD compact Méthode de classification nD Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Méthode de classification nD par requantification Résistance des méthodes de segmentation nD au bruit 74

75 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Optimisation de la méthode de segmentation ImsegHier_nD Problèmes de Imseghier_nD : sur-segmentation ( justifié par le nombre de CC) mauvaise qualité de la segmentation ( évaluation segmentation non supervisée) Analyse : Similarité floue et requantification pour limiter la sur-segmentation seuil S : pas toujours pertinent pour la sélection des meilleurs pics Permettre à ImSegHier_nD dintégrer les performances de K-means 75

76 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Analyse de la sélection de pics pertinents dans les histogrammes nD But : choisir les pics pertinents afin déviter la sur-segmentation. 1 er Cas : cas de référence Pic1 Pic2 d 12 Exemple de référence à pics bien séparés d 12 d o, où do est la distance minimale nécessaire pour discriminer les 2 classes Ei : Effectif du pic i 76

77 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Analyse de la sélection de pics pertinents dans les histogrammes nD But : choisir les pics pertinents afin déviter la sur-segmentation. 2 ème Cas : Exemple dhistogramme à 3 pics avec E1 E2 > E3 Si S est choisi pour avoir deux pics, on sélectionnera que les pics 1 et 2, ce qui est faux car on devait choisir Pic12 et Pic 3. Pic1 Pic2 Pic3 Pic 12 77

78 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Analyse de la sélection de pics pertinents dans les histogrammes nD Le but de cette partie est de choisir les pics pertinents afin déviter la sur-segmentation. 3 ème Cas : Exemple dhistogramme à 3 pics deffectifs égaux E1 = E2 = E3 Ce cas admet deux solutions a savoir 1 seule classe ou 3 classes. Impossible davoir les 2 classes Pic1 Pic2 Pic3 78

79 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Analyse de la sélection de pics pertinents dans les histogrammes nD Solutions proposées pour résoudre les cas 2 et 3 : Générer plus de clases et les fusionner en maximisant lénergie inter-classe ( non abordé dans cette présentation) Intégration dun rayon de dispersion pour lextraction des pics ( non abordé ici) Intégration dun modèle de voisinage flou dans le processus de classification, c à d en remplaçant lECC classique par lECCF (étiquetage en composantes connexes floues) Requantification de limage à différentes résolutions tonales inferieures q ( q

80 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue La logique floue sappuie sur la théorie mathématique des ensemble flous introduite par Zadeh en 1965 et constitue une extension de la théorie des ensembles classiques pour la prise en compte densembles définis de façon imprécise. Un sous-ensemble flou A ( ensemble floue A) dun référentiel B est caractérisé par une fonction dappartenance notée à valeurs dans [0, 1] Une relation floue (similarité floue) 80

81 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Connexité floue Différents travaux : [Udapa, 1996]; [Carvalho et al., 1999], etc. voisinage flou k (similarité flou) : N.B : un graphe de similarité entre spels peut être généré à partir de la relation floue K Chemin entre deux spels c et d : succession de spels k-connexe liant c et d, notions utilisées en théorie des graphes. 81

82 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Connexité floue Coût dun chemin P : avec m2 sachant que et Soit sous ensemble flou décrivant le coût dun chemin k -connexe relatif au chemin P est : 82

83 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Connectivité floue Relation floue ѱ sur k sous ensemble flou ѱ caractérisé par la fonction dappartenance calcule le coût global des chemins entre c et d, Pcd : ensemble de tous les chemins reliant c et d Cette relation définit une relation déquivalence ( ѱ –connexe) N.B : En fixant une valeur de coût on peut extraire les composantes connexes floues ѱ –connexe correspondant à des -coupes. 83

84 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Algorithme de connexité de floue (ECCF) Principe similaire à lECC Seul la recherche des voisins flous dun spel de lhistogramme nD compact pour un coût donné est remplacé par la recherche de voisins classiques ( on ne cherchera pas à déterminer tous les chemins pour étiqueter un spel). N.B : un graphe de similarité peut être généré pour la recherche des composantes connexes floues 0,260,30,330,30,26 0,30,410,50,410,3 0,330,5 X(1) Exemple de CCF ( ѱ –connexe) en 2D pour un coût minimum =0,26 84

85 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue C omplexité au pire de lECCF ( Cp) 85

86 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Application de l ECCF Nombre de composantes connexes floues pour différents coût Variation du nombre de CCF en fonction de d( ) 86

87 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Application de l ECCF Statistiques des composantes connexes floues pour différents coûts Répartition en effectif des CCF pour différentes valeurs de 87

88 Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Classification nD par voisinage flou (ImsegHier_Floue_nD) Généralisation de ImSegHier_nD en remplaçant lECC par lECCF quand = 0,5, ImSegHier_Floue_nD correspond à ImSegHier_nD Différentes segmentations dun même nombre de classes sont réalisées pour différentes valeurs de, choix de la segmentation la plus pertinente ce qui revient à déterminer le optimal.. 88

89 Résultats de segmentation de ImSegHier_Floue_nD Synt_RayonDispersion Seg1( =0,5 ) (6 classes) Synt1ou3Synt2009Synt_gdr Seg1( =0,5 ) (6 classes) Seg1( =0,5 ) (2 classes) Seg1( =0,5 ) (2 classes) Seg2( = 0,20) (6 classes) Seg2( =0,167 ) (6 classes) Seg2( = 0,33) (2 classes) Seg2( =0,25 ) (2 classes) Impossible 89

90 Résultats de segmentation de ImSegHier_Floue_nD M4(9D) Seg1( =0,5 ) (8 classes) IRM(4D)HOUSEMANDRILL Seg1( =0,5 ) (8 classes) Seg1( =0,5 ) (5 classes) Seg1( =0,5 ) (8 classes) Seg2( =0,25 ) (8 classes) Seg2( =0,167 ) (8 classes) Seg2( = 0,25) (5 classes) Seg2( =0,167) (8 classes) 90

91 Méthodes de segmentation proposées Histogrammes nD compact ECC classique dhistogrammes nD compact Méthode de classification nD Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Méthode de classification nD par requantification Résistance des méthodes de segmentation nD au bruit 91

92 Méthode de segmentation nD par requantification Principe de la méthode (ImSegHier_Requant_nD) Principe est identique à ImSegHier_nD, mais limage est requantifiée Requantification limitée jusquà 5 bits (qualité visuelle de limage presque préservée). Principe de la requantification Deux méthodes : Par troncature : on supprime les (Q-q) bits de poids faibles Par arrondi : la valeur de résolution q la plus proche de Q Q : la résolution tonale de chaque plan de limage (en général Q=8) q : la nouvelle résolution tonale de limage requantifiée ( q {5,6,7} ) Nous avons opté pour lapproche par troncature 92

93 R ésultats de segmentation de ImSegHier_Requant_nD Synt_RayonDispersion Seg1( q =7 bits ) (6 classes) Synt1ou3Synt2009Synt_gdr Seg1( q=7 bits ) (6 classes) Seg1( q=7 bits ) (2 classes) Seg1( q=7 bits) (2 classes) Seg2( q = 5 bits) (6 classes) Seg2( q=5 bits ) (6 classes) Seg2( q= 5 bits) (2 classes) Seg2( q=5 bits ) (2 classes) 93

94 R ésultats de segmentation de ImSegHier_Requant_nD M4(9D) Seg1( q= 7 bits ) (8 classes) IRM(4D)HOUSEMANDRILL Seg1( q= 6 bits ) (8 classes) Seg1( q = 7 bits ) (5 classes) Seg1( q = 7 bits ) (8 classes) Seg2( q= 6 bits ) (8 classes) Seg2( q= 5 bits ) (8 classes) Seg2( q= 5 bits) (5 classes) Seg2( q = 5 bits) (8 classes) 94

95 Méthodes de segmentation proposées Histogrammes nD compact ECC classique dhistogrammes nD compact Méthode de classification nD Méthode de classification nD intégrant un modèle de voisinage flou ou de similarité floue Méthode de classification nD par requantification Résistance des méthodes de segmentation nD au bruit 95

96 Résistance des méthodes de segmentation nD au bruit Resistance de la méthode au bruit (exemples de segmentation) Synt_gdr Synt_gdr bruitée gaussien de variance σ = 0.02 Seg_Reference ( 6classes) = 0,167 Vinet =0,52% = 0,2 Vinet = 0,52% = 0,33 Vinet = 33,72% = 0,5 Vinet =35,99% 96

97 Résistance des méthodes de segmentation nD au bruit Evaluation de la résistance de la méthode ImSegHier_Floue_nD au bruit (bruit gaussien non corrélé) σ Nombre de classes, , , ,015 00,0015 0,0240,053 0,02 0,001512,510,0690,3735,99 0,025 0,06312,580,3926,3445,89 0,03 26,3612,801,1925,1742,21 0,04 26,4338,150,4470,9771,02 0,05 27,8339,8141,5459,9665,08 Résistance au bruit gaussien de la méthode par voisinage flou, les valeurs de Vinet calculés sont en % et expriment le % de pixels mal classés. Segmentation acceptable pour mesure Vinet 5% 97

98 Résistance des méthodes de classification nD au bruit Comparaison de la résistance au bruit des deux méthodes de segmentation Résistance des deux méthodes de au bruit gaussien, les valeurs de Vinet calculés sont en % et expriment le % de pixels mal classés. Segmentation acceptable pour mesure vinet 5% Synt gdr avec bruit gaussien additif de σ = 0,02 Mesure de Vinet θ q 0.50,330,200, classes1, , , , classes0,12510,12520,1251 0,12560,12520, classes0,000690, ,00410,00110, classes0,00370,00360,0039 0,02380,00590, classes0,35990,33720,0052 NA0,01580,

99 PLAN Contexte du travail Objectifs Problématique Généralités Etat de lart Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 99

100 Evaluation de la segmentation Evaluation des méthodes de segmentation proposées Discussion des résultats dévaluation Conclusion partielle 100

101 Evaluation des deux méthodes de segmentation proposées Evaluation non supervisée des méthodes de segmentation nD Nom image Critère de Levine et Nazif (complément à 1) ImSegHier_Floue_nDImSegHier_Requant_nD K- means =0,5=0,33=0,25=0,20=0,167 q =5q = 6q = 7 Synt_gdr Synt_RayonDispersion 0,9995 0,9999 0,9972 Synt1ou3 NA Synt2009 0, House 0,96980,96250,96850,96760,96800,96710,96930,97010,9553 Mandrill 0,89710,89980,90540,89060,91410,89130,90040,91120,9192 IRM 0,92770,89630,82130,81250,82970,84680,89300,87660,8927 M4 0,86080,86810,84430,73430,78910,78700,80070,86360,

102 Evaluation des deux méthodes de segmentation proposées Evaluation supervisée des méthodes de segmentation nD Nom image Critère de Vinet ImSegHier_Floue_nD ( = 0,5) ImSegHier_Requant_nD (q = 5 bits) K-means Forsythia ( IMG01) 05,78%04,43%08,43% Forsythia ( IMG05) 05,46%05,38%09,84% Forsythia ( IMG08) 05,46%05,10%10,43% Forsythia ( IMG12) 03,65%04,15%06,93% Forsythia ( IMG24) 04,19%3,86%09,44% 102

103 Evaluation de la segmentation Evaluation des méthodes de segmentation proposées Discussion des résultats dévaluation Conclusion partielle 103

104 Discussion des résultats dévaluation ImsegHier_Floue_nD est meilleur dans lensemble que ImSegHier_Requant_nD et K- means ImSegHier_Requant_nD est moins performant en évaluation non supervisée à cause de la perte dinformation due à la requantification mais sest souvent révélée meilleure en évaluation supervisée Sur les images de synthèse ImSegHier_Floue_nD et ImsegHier_Requant_nD se sont révélées meilleures que K-means Sur certaines images réelles K-means sest révélée souvent meilleure, ce qui confirme que : o Les images synthétiques ne représentent pas toutes les réalités [ Phillip-Foliguet et al., 2002] o Il n y a pas de méthodes universelle pour tout type dimage [Lezoray et Chabrier, 2004] ImsegHier_Requant_nD est sensible au bruit 104

105 Evaluation de la segmentation Evaluation des méthodes de segmentation proposées Discussion des résultats Conclusion partielle 105

106 Conclusion partielle Les performances dune méthode de segmentation sont liées au critère dévaluation choisi. Nombre de classes House Paramètres segmentation Intra Levine et Nazif BorsottiZeboudjRosenberger 5 Θ = 0,50 0,96980,12110,8424 0, Θ = 0,33 0,96250,13720,79350, Θ = 0,25 0,96850,11480,81140, Θ = 0,20 0,96760,12250,83730, Θ = 0,17 0,96800,1228 0,83750, q = 5 0,96710,14500,8361 0, q = 6 0,96930,13950,8384 0, q = 7 0,97010,12110,84160, Θ = 0,50 0,96930,08110,53310, Θ = 0,33 0,96410,0864 0,81690, Θ = 0,25 0,93980,09160,83000, Θ = 0,20 0,96500,09020,86120, Θ = 0,17 0,96860,08330,51890, q = 5 0,96320,09860,5297 0, q = 6 0,95750,11520,54610, q = 7 0,96930,08070,52700,

107 Conclusion partielle (suite) Nombre de classes Mandrill Paramètres segmentation Intra Levine et Nazif BorsottiZeboudjRosenberger 5 Θ = 0,50 0,91440,40430,39070, Θ = 0,33 0,91150,44200,50530, Θ = 0,25 0,91830,34760,34390, Θ = 0,20 0,90590,41220,44400, Θ = 0,17 0,92200,35650,43840, q = 5 0,89420,52700,61450, q = 6 0,90080,50040,56750, q = 7 0,91320,47080,42860, Θ = 0,50 0,89710,42290,51260, Θ = 0,33 0,89980,40750,36790, Θ = 0,25 0,90540,36360,43450, Θ = 0,20 0,89060,46210,51680, Θ = 0,17 0,91410,31020,43130, q = 5 0,89130,44070,59340, q = 6 0,90040,34730,58080, q = 7 0,91120,32530,41090,

108 Conclusion partielle (suite) Nombre de classes IRM Paramètres segmentation Intra Levine et Nazif BorsottiZeboudjRosenberger 5 Θ = 0,50 0,93560,221600, Θ = 0,33 0,93980,220200, Θ = 0,25 0,87220,316700, Θ = 0,20 0,82400,331800, Θ = 0,17 0,80940,344400, q = 5 0,87680,213200, q = 6 0,93350,179300, q = 7 0,92480,215300, Θ = 0,50 0,92770,278600, Θ = 0,33 0,89630,233900, Θ = 0,25 0,82130,352800, Θ = 0,20 0,81250,385300, Θ = 0,17 0,82970,280100, q = 5 0,84680,237300, q = 6 0,89300,183000, q = 7 0,87660,190800,

109 Conclusion partielle (suite) Nombre de classes M4 Paramètres segmentation Intra Levine et Nazif BorsottiZeboudjRosenberger 8 Θ = 0,50 0,86080,60500,60710, Θ = 0,33 0,86810,50630,64190, Θ = 0,25 0,84430,66740,73500, Θ = 0,20 0,73430,61260,71840, Θ = 0,17 0,78910,60260,57270, q = 5 0,78700,47960,59420, q = 6 0,80070,64050,62630, q = 7 0,86360,51210,63570, Θ = 0,50 0,86110,67550,60710, Θ = 0,33 0,84120,47990,64790, Θ = 0,25 0,83550,74230,73390, Θ = 0,20 0,71440,59540,58150, Θ = 0,17 0,78120,57050,63630, q = 5 0,77150,44560,60260, q = 6 0,79420,71500,62620, q = 7 0,86490,54360,64380,

110 PLAN Contexte du travail Objectifs Problématique Généralités Etat de lart Méthodes de segmentation proposées Evaluation de la segmentation Conclusion 110

111 Nous avons mis en œuvre des approches de classification nD originales du fait de leur caractère vectoriel et de leur compacité mémoire. Nous avons proposés des solutions intéressantes pour résoudre le problème de sur- segmentation quand le nombre de plans des images est supérieur ou égal à 3. Les méthodes de segmentations réalisées donnent des résultats encourageants au regard dautres approches de classification. Nous avons comparé les résultats de nos algorithmes de segmentation avec différentes méthodes dévaluation. Nous avons montré quil ny a pas de méthodes dévaluation universelle et quen fonction des images, les critères dévaluation privilégient tour à tour certaines méthodes de segmentation. ImsegHier_Floue_nD et ImsegHier_nD sont paramétrables afin de faire varier le nombre de classes. Nos algorithmes de classification et dECC peuvent être exploités pour réaliser des classifications spatio-colorimétrique 111

112 JE VOUS REMERCIE POUR VOTRE ATTENTION 112


Télécharger ppt "Segmentation dimages couleur ou multispectrales par analyse dhistogrammes multidimensionnels Sié OUATTARA (06-01-2009) Directeur de thèse : Bertrand VIGOUROUX."

Présentations similaires


Annonces Google