La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

RECONNAISSANCE DE FORMES IAR-6002. Sélection et/ou extraction des caractéristiques u Introduction u Critères dévaluation de caractéristiques u Sélection.

Présentations similaires


Présentation au sujet: "RECONNAISSANCE DE FORMES IAR-6002. Sélection et/ou extraction des caractéristiques u Introduction u Critères dévaluation de caractéristiques u Sélection."— Transcription de la présentation:

1 RECONNAISSANCE DE FORMES IAR-6002

2 Sélection et/ou extraction des caractéristiques u Introduction u Critères dévaluation de caractéristiques u Sélection des caractéristiques u Extraction des caractéristiques

3 Introduction u Le but recherché par la sélection et lextraction des caractéristiques est de diminuer le plus pos- sible le nombre de caractéristiques utilisées pour représenter les formes à classifier u De plus, nous pouvons alors estimer le pouvoir discriminant des caractérisques permettant la différenciation dobjets de classes distinctes

4 Introduction u Nous pouvons réduire le nombre de caractéris- tiques requises de deux façons: –Une approche consiste à trouver les d caractéris- tiques parmi les D possibles qui discriminent le mieux les formes à classer

5 Introduction u Une seconde approche consiste à projeter len- semble des caractéristiques originales dans un autre espace de caractéristiques de dimension inférieure (extraction de caractéristiques)

6 Introduction u Pour résoudre le problème de sélection ou dextraction de caractéristiques nous devons spécifier: –Les critères dévaluation des caractéristiques –La dimension des espaces de caractéristiques –La procédure de recherche optimale –Le type de transformation (extraction)

7 Introduction u Nous utilisons les notations suivantes: –Caractéristiques originales y k, k = 1,2,....,D y = [y 1,y 2,...,y D ] T –Chaque observation (objets, formes) y appartient à une des m classes possibles C i, i= 1,2,....,m –Nous savons que loccurrence des vecteurs y est modélisée par un processus aléatoire représenté par la probabilité conditionnelle p(y|C i ) et la probabilité à priori P(C i )

8 Introduction u Nous utilisons les notations suivantes: –Un ensemble contient les caractéristiques candidates j, j=1,2,...,d –Les caractéristiques optimales sont dénotées par X={x j |j=1,...,d} et découle du calcul dun critère dévaluation J() –Pour la sélection, nous cherchons: J(X) = max J( ) qui représente les caractéristiques qui maximise le critère de sélection

9 Introduction u Nous utilisons les notations suivantes: –Pour lextraction, nous cherchons: J(A) = max A J(A) où A est un extracteur optimal –Avec A connu nous pouvons déduire x par: x = A(y)

10 Critères dévaluation de caractéristiques u Basé sur la probabilité derreur –Dans un espace de caractéristiques de dimension d définit par un ensemble de caractéristiques = [ 1,..., d ] la probabilité derreur est donnée par Pdf mixte de Pdf à posteriori

11 Critères dévaluation de caractéristiques u Basé sur des mesures de distances probabilistes –Le concept de distance probabiliste fait référence à la distance entre 2 pdf et est aussi fonction du degré de chevauchement des 2 pdf J = 0 quand p( |C i ) pour i = 1 et 2 se chevauchent J est maximum quand il ny a pas de chevauchement

12 Critères dévaluation de caractéristiques u Basé sur des mesures de distances probabilistes –Les principales distances probabilistes sont: t Bhattacharyya et Patrick-Fisher

13 Critères dévaluation de caractéristiques u Basé sur des mesures de distances probabilistes –Les principales distances probabilistes dans leurs formes moyenne sont: t Bhattacharyya et Patrick-Fisher

14 Critères dévaluation de caractéristiques u Basé sur des mesures de distances probabilistes –Si nous supposons que les pdf conditionnelles sont normales alors

15 Critères dévaluation de caractéristiques u Basé sur des mesures de distances probabilistes –La distance de Batthacharyya devient

16 Critères dévaluation de caractéristiques u Basé sur des mesures de distances probabilistes –La distance de Mahalanobis est donnée par

17 Critères dévaluation de caractéristiques u Basé sur des mesures de distances probabilistes –Un critère dévaluation dans le cas multi-classe peut être déduit par une moyenne pondérée des distances entre 2 classes ij J ij ( ) de la forme

18 Critères dévaluation de caractéristiques u Basé sur des mesures de dépendances probabi- listes –La dépendance des variables aléatoires et C i est incorporée dans la pdf conditionnelle p( |C i ), pour i=1,...,m –Si et C i sont indépendants alors p( |C i ) = p( ), ce qui veut dire que la i ieme pdf conditionnelle est identique à la pdf mixte –Dans ces circonstances, une observation sera difficile à classer

19 Critères dévaluation de caractéristiques u Basé sur des mesures de dépendances probabi- listes –Le degré de dépendance entre les variables et C i peut alors être donné par une distance entre la pdf conditionnelle p( |C i ) et la pdf mixte p( ) –Mesure de dépendance probabiliste (Patrick- Fisher)

20 Critères dévaluation de caractéristiques u Basé sur des mesures dentropie –Le degré de dépendance entre les variables et C i peut aussi être donné par des mesures dentro- pie –Lentropie mesure le degré dincertitude. Lors- que le gain dinformation est faible lincertitude est maximale. Si nous avons une observation et que nous calculons P(C i | ) pour i=1,...,m, et que P(C i | ) est équiprobable, lincertitude est dans ce cas maximale

21 Critères dévaluation de caractéristiques u Basé sur des mesures dentropie –Mesure dentropie (Distance Bayesienne)

22 Critères dévaluation de caractéristiques u Basé sur des mesures de distances inter-classe –Si nous avons un ensemble dobservations repré- sentatives de chacune de nos classes et que nous supposons que les observations associées à chaque classe occupe une région distincte dans lespace des observations –La distance moyenne entre les paires dobserva- tions dentraînement devient alors une mesure de discrimination des classes

23 Critères dévaluation de caractéristiques u Basé sur des mesures de distances inter-classe –Une métrique ( ik, jl ) permet de mesurer la distance entre lobservation k de la i ième classe et lobservation l de la j ième classe –La distance moyenne est donnée par

24 Sélection des caractéristiques u Basé sur le mérite individuel –Si nous avons un ensemble de caractéristiques y j pour j=1,...,D, à partir dun sous-ensemble de caractéristiques de cardinalité d nous cher- chons le vecteur de caractéristiques optimal X –Pour trouver ce vecteur X il faut alors considérer D!/(D-d)!d! combinaisons de vecteurs de carac- térisques ce qui est excessif

25 Sélection des caractéristiques u Basé sur le mérite individuel –Si nous avons m=2 (2 classes) avec des pdf conditionnelles p( |C i ) distribuées de façon normale avec 1 = 2 sur la diagonale (les mesures sont indépendantes) la distance de Mahalanobis sexprime alors par

26 Sélection des caractéristiques u Basé sur le mérite individuel –La contribution de chaque mesure pour la discri- mination des classes est indépendantes des autres mesures –Nous pouvons alors sélectionner les d meilleures caractéristiques en sélectionnant les d meilleures mesures individuelles

27 Sélection des caractéristiques u Basé sur le mérite individuel –Procédure Calculer J M (y j ), pour j=1,2...,D et les classer selon un ordre décroissant J M (y 1 ) > J M (y 2 ) >.... > J M (y D ) Le meilleur vecteur de caractéristiques X = {y j |j=1,...,d}

28 Sélection des caractéristiques u Basé sur une sélection séquentielle avant SFS et arrière SBS –La méthode SFS est buttom-up. Partant dun ensemble vide nous sélectionnons comme pre- mière caractéristique celle qui discrimine le mieux nos classes –À chaque itération, nous choisissons une caractéristique qui jumelée à celle trouvées aux étapes précédentes permet une discrimination maximale des classes

29 Sélection des caractéristiques u Basé sur une sélection séquentielle avant SFS et arrière SBS –Lalgorithme SFS Initialisation X 0 = Si nous avons sélectionné k caractéristiques de lensem- ble des mesures Y = {y j |j=1,...,D} pour produire le vecteur de caractéristiques X k. La (k+1) ième caractéristique est alors choisie à partir de lensemble des mesures disponibles Y - X k tel que J(X k+1 ) = max J(X k y j ), y j Y - X k.

30 Sélection des caractéristiques u Basé sur une sélection séquentielle avant SFS et arrière SBS –La méthode SBS est top-down. Partant de len- semble des mesures Y nous éliminons alors une mesure à la fois –À chaque itération, nous éliminons une caracté- ristique qui diminue peu le critère J(). Ce qui veut dire que cette caractéristique contribue fai- blement à la discrimination des classes

31 Sélection des caractéristiques u Basé sur une sélection séquentielle avant SFS et arrière SBS –Lalgorithme SBS Initialisation X D = Y Si nous avons éliminé k caractéristiques de lensemble des mesures Y = {y j |j=1,...,D} pour produire le vecteur de caractéristiques X D-k. La (k+1) ième caractéristique à éliminer est alors choisie à partir de lensemble des mesures disponibles X D-k tel que J(X D-k-1 ) = max J(X D-k - y j ), y j X D-k.

32 Sélection des caractéristiques u Basé sur une sélection séquentielle avant SFS et arrière SBS –Lalgorithme SFS est sous optimal Aucun mécanisme ne permet déliminer une caractéris- tique qui devient superflue après linclusion dautres ca- ractéristiques –De même, lalgorithme SBS est aussi sous optimal Aucun mécanisme ne permet de rajouter une caractéris- tique éliminer

33 Sélection des caractéristiques u Basé sur lalgorithme Plus l-Take Away r –Nous pouvons réduire les problèmes de sous optimalité dénoté dans les méthodes SFS et SBS par un processus dalternance dajout et de retrait de caractéristiques –Après avoir ajouté l caractéristiques à lensemble des caractéristiques courante, r caractéristiques sont alors retirée –La dimension de lensemble des caractéristiques change alors de l-r

34 Sélection des caractéristiques u Basé sur lalgorithme Plus l-Take Away r –Ce processus continu jusquà ce que la dimen- sion requise soit atteinte –Si l > r la sélection progresse de façon BUTTOM-UP et TOP-DOWN si l < r

35 Sélection des caractéristiques u Basé sur lalgorithme Plus l-Take Away r –Lalgorithme Plus l-Take Away r (l > r) –Si nous avons X k lensemble des caractéristiques actuelles Appliquer SFS l fois pour générer un ensemble X k+l Appliquer SBS r fois pour générer un ensemble X k+l-r Continuer TANT QUE k + l - r != d

36 Sélection des caractéristiques u Basé sur lalgorithme Plus l-Take Away r –Lalgorithme Plus l-Take Away r (l < r) –Si nous avons X k lensemble des caractéristiques actuelles Appliquer SBS r fois pour générer un ensemble X k-r Appliquer SFS l fois pour générer un ensemble X k-r+l Continuer TANT QUE k - r + l != d u Cas particulier –(l,r)=(l,0) => algorithme SFS –(0,r) => algorithme SBS

37 Sélection des caractéristiques u Basé sur lalgorithme MIN-MAX –La sélection est basée sur le mérite des caractéristi- ques prises individuellement ou par paire –Supposons que nous avons déjà sélectionné k carac- téristiques, nous pouvons alors évaluer le mérite de lensemble de caractéristiques restantes Y-X k en déterminant la quantité dinformation nouvelle quelles ajoutent si elles sont ajoutées à lensemble des caractéristiques

38 Sélection des caractéristiques u Basé sur lalgorithme MIN-MAX –La quantité dinformation nouvelle ajoutée de lajout dune caractéristique y j Y - X k à une autre x l X k est donnée par:

39 Sélection des caractéristiques u Basé sur lalgorithme MIN-MAX –Nous cherchons alors une caractéristique y j dont lajout dinformation est grand pour toutes les caractéristiques X k –Nous cherchons y j qui maximise pour tout les j le minimum de J(y j,x l ) pour tout les l

40 Sélection des caractéristiques u Basé sur lalgorithme MIN-MAX –Algorithme MIN-MAX Si x k est lensemble des caractéristiques courantes. Nous cherchons la caractéristique X k+1 = y j Y - X k qui satisfait


Télécharger ppt "RECONNAISSANCE DE FORMES IAR-6002. Sélection et/ou extraction des caractéristiques u Introduction u Critères dévaluation de caractéristiques u Sélection."

Présentations similaires


Annonces Google