La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Classification: signatures spectrales. Lespace de représentation et les méthodes de classification Dans une situation idéale, chaque classe dobjets est.

Présentations similaires


Présentation au sujet: "Classification: signatures spectrales. Lespace de représentation et les méthodes de classification Dans une situation idéale, chaque classe dobjets est."— Transcription de la présentation:

1 Classification: signatures spectrales

2 Lespace de représentation et les méthodes de classification Dans une situation idéale, chaque classe dobjets est représentée par un point unique dans cet espace. À cause des variations des conditions d'illumination ainsi que les variations des propriétés des objets, les pixels appartenant à une classe d'objets sont représentés par une série de points plus ou moins dispersés dans cet espace. Les méthodes de classification visent à définir les équations mathématiques qui permettent de localiser dans cet espace les limites de chacune des classes

3 F C B Bande 1 Bande 2 S x F : feuillus C : conifères B : béton S : sol à nu Un exemple: quatre domaines ont été identifiés, le pixel X dont la classe est recherchée, est représenté dans lespace dattributs. Il tombe dans le domaine de feuillus…la classe feuillus lui est alors assignée

4 Le problème de classification COMMENT DÉFINIR LE DOMAINE DE CHAQUE CLASSE???? DEUX APPROCHES: DIRIGÉE : un échantillon de pixels dont la classe est connue est analysé afin de définir les domaines NON-DIRIGÉE: un échantillon de pixels est analysé afin de définir des groupements de pixels dans lespace dattributs. Chaque groupement (cluster) définit un domaine dont la signification géographique reste à établir

5 La classification dirigée: quelques techniques de base

6 La classification par distance minimale Hypothèse: le domaine dune classe est défini en fonction de la proximité (distance euclidienne) de tous les points du domaine à un point central: lanalyste fournit des échantillons de pixels par classe Lalgorithme calcule le centre de chaque classe (moyennes) Illustration

7 Distance minimale Etc. Parmi ces distances quelle est la plus courte? Assigne le pixel 1 à la classe pour laquelle la distance est minimale

8 Les domaines des classes implicitement définis (polygones de Thiessen)

9 Exemple: image SPOT à 4 bandes

10 Choix de pixels échantillons Classes: Eau; Gazon; Boisés; Sol à nu; Bâti; Surfaces pavées.

11 Diffusiogrammes ROUGE-PIR Image entière

12 Diffusiogrammes ROUGE-PIR Image entière EAU

13 Diffusiogrammes ROUGE-PIR Image entière GAZON

14 Diffusiogrammes ROUGE-PIR Image entière BOISÉ

15 Diffusiogrammes ROUGE-PIR Image entière SOL À NU

16 Diffusiogrammes ROUGE-PIR Image entière BÂTI

17 Diffusiogrammes ROUGE-PIR Image entière SURFACES PAVÉES

18 CLASSIFICATION FINALE

19 La classification par parallélépipèdes Hypothèse: le domaine dune classe est défini en fonction de la proximité de tous les points du domaine à un point central: la proximité est évaluée tenant compte de lécart type dans chaque bande spectrale lanalyste fournit des échantillons de pixels par classe Lalgorithme calcule le centre de chaque classe (moyennes) ainsi que la dispersion (écarts types) Illustration

20 La classification par parallélépipèdes

21 La classification par maximum de vraisemblance (cas paramétrique) Hypothèse: le domaine dune classe, supposée distribuée normalement, est défini en fonction de la proximité de tous les points du domaine à un point central: la proximité est évaluée tenant compte de la matrice de variance-covariance lanalyste fournit des échantillons de pixels par classe Lalgorithme calcule le centre de chaque classe (moyennes) ainsi que la dispersion dans lespace multidimensionnel (matrices de variance-covariance) Illustration

22 La classification par maximum de vraisemblance (cas paramétrique)

23 Exemple: Image à classifier: 3 bandes spectrales (V-R-PIR) + 15 m de résolution spatiale + été

24 Choix des sites dentraînement par classe Règles: a)Par classe les sites doivent totaliser plus que 30 pixels b)Ils doivent être pris à différents endroits sur limage pour capter la variabilité intra-classe

25 Choix des sites dentraînement par classe Exemple1: Eau

26 Choix des sites dentraînement par classe Exemple2: Urbain classe 1: forte densité du bâti Classe 2: faible densité du bâti

27 Choix des sites dentraînement par classe Exemple3: Rural classe 1: boisés Classe 2: sol à nu

28 Génération des signatures spectrales

29 Test de classification

30 Test de classification (en noir pixels non classifiés) Résultat mitigé; surtout beaucoup de pixels non classifiés possibilités damélioration: Spécifiez de nouvelles classes; mieux définir les sites dentraînement… etc.

31 Revenons aux méthodes avec des explications théoriques

32 La classification dirigée La plupart des classificateurs dirigés adoptent une vision probabiliste de ce quune classe et se fondent sur une règle dattribution dun vecteur de mesures à une classe: la règle de Bayes

33 La règle de BAYES: un exemple Un paléontologue trouve un fragment dun fossile dun animal marin dans la zone de jonction des deux ruisseaux. Dans quel bassin versant se trouvent des restes plus complets de cet animal? H1: le bassin de 18 km2 H2: le bassin de 10 km2

34 La règle de BAYES: un exemple Probabilités a priori fonction de la taille relative du basin: P(H1) = 18/28 = 0,64 P(H2) = 10/28 = 0,36 Probabilité conditionnelle (VRAISEMBLANCE): par une carte géologique il calcule que 35% des roches du Crétacé dans le bassin H1 est dorigine marine tandis que 80% le sont dans le bassin H2 P (E|H1) = 0,35; P(E|H2)=0,80

35 La règle de BAYES: un exemple La règle de Bayes: P (H1|E) = probabilité a posteriori étant donné le fossile E, ceci provient du bassin H1 P (H2|E) = probabilité a posteriori étant donné le fossile E, ceci provient du bassin H1 Le fossile provient du bassin avec le maximum de probabilité a posteriori

36 La règle de BAYES: un exemple La règle de Bayes: a posteriori = (vraisemblance x a priori)/évidence Évidence = P(E|H1)*P(H1) + P(E|H2)*P(H2)= (0,35 *0,64 + 0,80*0,36) = 0,51

37 La règle de BAYES: un exemple La règle de Bayes: P(H1|E) = 0,35*0,64/0,51 = 0,44 P(H2|E) = 0,80*0,36/0,51 = 0,56 Donc H2

38 Algorithme de calcul Puisque lévidence est pareille pour toutes les classes, la règle se simplifie comme suit: Pour minimiser les erreurs (mauvaises classifications) :

39 Algorithme de classification Solution 1: paramétrique Solution 2: non paramétrique Si toutes les classes sont équiprobables la règle sexprime tout simplement : assigne le vecteur de mesures x à la classe avec le maximum de vraisemblance. Mais comment connaître la vraisemblance par classe?

40 Solution paramétrique: hypothèse les classes ont une distribution qui suit la loi de la distribution multinormale ….Un rappel des notions statistiques

41 Distribution multi-normale ….Un rappel des notions statistiques

42 TM1TM2TM3TM4TM5TM6 TM TM TM TM TM TM Matrice de variance-covariance Un rappel des notions statistiques

43 ….Un rappel des notions statistiques Composantes principales (variance selon ses axes=valeurs propres)… Ellipse de probabilité constante

44 Algorithme de calcul Ainsi en remplaçant par la formule de la distribution multinormale et en prenant les logarithmes naturelles nous pouvons arriver à la formulation de la règle de décision du classificateur (fonctions discriminantes)

45 Formulation

46 Domaines des classes (implicitement définis) Domaines des classes 2-D Domaines des classes 3-D

47 Classificateurs non paramétriques Contrairement aux classificateurs paramétriques ceux dits non paramétriques ne font aucune hypothèse quant à la distribution de probabilité des valeurs dune classe quelconque. Une des méthodes souvent utilisées est celle des k-plus proches voisins. La probabilité dappartenance dun point à un domaine quelconque est approchée par la fréquence relative des prototypes par classe sur les k prototypes retrouvés les plus proches. Le nombre k ainsi que létendue du voisinage sont définis par lopérateur. Le point est alors attribué à la classe avec la plus forte probabilité dappartenance. Exemple: il y a quatre classes Noir (N), Gris foncé (GF), gris pâle (GP) et blanc (B). Lutilisateur a fixé le nombre de plus proches prototypes voisins à 10. Pour chaque vecteur à classer, lalgorithme cherche alors ces 10 plus proches voisins. Ici il y a 6 B, 2 GF et 2 GP. Le pixel est classifié dans la classe B. Dans un cas dégalité, lalgorithme choisit la classe dont les prototypes sont les moins éloignés en termes de distance euclidienne du point examiné

48 Qualité de la classification On teste la qualité des sites dentraînement Si la qualité est acceptable on passe à la validation de la classification, sinon on recommence avec le choix des sites La validation: on choisit des sites tests dont on connaît la classe et on vérifie les résultats de la classification

49 Exemple: qualité des sites choisis – mesure de séparabilité Ici Divergence Transformée : si 2 séparabilité parfaite

50 Lévaluation quantitative: la matrice de confusion Cest un tableau à double entrée (table de contingence)comportant les classes classe Classes tests Classes affectées

51 Qualité de la classification Matrice de confusion

52 Validation

53 Classification non dirigée

54 Recherche des pics et des vallées: histogramme multidimensionel

55 Classification non dirigée (par coalescence) ou (clustering): K-clusters Lanalyste spécifie a) le nombre de classes (K) b) les paramètres darrêt de lalgorithme Lalgorithme 1.regroupe les données (processus itératif) – il établit les centres des classes (une classe = un cluster) spectrales, spatiales,… 2. classifie tous les pixels selon leur proximité aux centres des clusters 3. produit limage classifiée Lanalyste trouve la signification des clusters (il se peut que certains clusters soient regroupés)

56 Comment établissons-nous les centres? illustration

57 Exemple: regrouper en deux classes

58 Début: choix des deux centres arbitraires Centres initiaux

59 Assigner un pixel à un des deux centres selon sa distance euclidienne

60 Calculer la nouvelle position des deux centres selon les positions des pixels assignés à létape précédente

61 Réassigner les pixels aux nouveaux centres

62 Arrêter lorsque les déplacements des centres est inférieur à un seuil

63 Clusters vs. Classes thématiques Clusters Classes thématiques AB 12 Idéal Réalité ABC 12 ou ABC Vieille asphalte Asphalte fraîche Béton Classe thématique: route Asphalte

64 Limitations Le nombre de classes? La séparation des classes qui nont pas une distribution circulaire? Données originales Données classées

65 Exemple: Image à classifier: 3 bandes spectrales (V-R-PIR) + 15 m de résolution spatiale + été 16 clusters demandés

66 Exemple de classification non dirigée


Télécharger ppt "Classification: signatures spectrales. Lespace de représentation et les méthodes de classification Dans une situation idéale, chaque classe dobjets est."

Présentations similaires


Annonces Google