La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Apprentissage et Fouille de Données - 7/3/2007 1 Locality Sensitive Discriminant Analysis Deng Cai, Xiaofei He, Kun Zhou, Jiawei Han, Hujun Bao Apprentissage.

Présentations similaires


Présentation au sujet: "Apprentissage et Fouille de Données - 7/3/2007 1 Locality Sensitive Discriminant Analysis Deng Cai, Xiaofei He, Kun Zhou, Jiawei Han, Hujun Bao Apprentissage."— Transcription de la présentation:

1 Apprentissage et Fouille de Données - 7/3/ Locality Sensitive Discriminant Analysis Deng Cai, Xiaofei He, Kun Zhou, Jiawei Han, Hujun Bao Apprentissage et Fouille de Données Christophe Prin-Derre

2 Apprentissage et Fouille de Données - 7/3/ Présentation Réduction de la dimension Apprentissage supervisé Critère doptimisation –Discrimination interclasse (globale) –Découverte géométrie locale Plus importante si peu dexemple Projection maximisant la marge interclasse dans chaque zone locale.

3 Apprentissage et Fouille de Données - 7/3/ Plan de létude Contexte et travaux apparentés Démarche –Fonction objectif –Justification algorithmique –Cas fortement non-linéaire Résultats expérimentaux Conclusion Avis personnel

4 Apprentissage et Fouille de Données - 7/3/ Contexte et travaux apparentés Réduction dimension : extraire un petit nombre de caractéristiques intéressantes –PCA (non-supervisé) –LDA (supervisé) argmax a a T S b a / a T S w a + grandes valeurs propres de S b a = λS w a Découverte de la structure locale dune Variété –non/semi/-/supervisé -> graphes –Laplacien de graphes -> tranformation –Importance relative interclasse/intraclasse

5 Apprentissage et Fouille de Données - 7/3/ Démarche Fonction objectif k plus proches voisins, N w (x i ), N b (x i ) Matrices de poids W b et W w –W = W b + W w (x1…xm) -> (y1…ym) –Min Σ ij (y i -y j )² W w,ij –Max Σ ij (y i -y j )² W b,ij

6 Apprentissage et Fouille de Données - 7/3/ Démarche Justification algorithmique L b = D b - W b argmax a a T X(αL b +(1-α)W w )X T S w a a T XD w X T a = 1 –Pb généralisé de valeurs propres

7 Apprentissage et Fouille de Données - 7/3/ Démarche C as fortement non-linéaire LSDA = algorithme linéaire Pb si Variété formée fortement non-linéaire Passage dans un espace «reproducing kernel hilbert space», RKHS. Introduction de –Fonction de noyau entre 2 points –Matrice de noyau

8 Apprentissage et Fouille de Données - 7/3/ Résultats expérimentaux 2 problèmes de reconnaissance des visages : bases Yale (15x11) et ORL (40x10) LSDA comparé aux algorithmes –Eigenface (PCA) –Fisherface (LDA) –Marginal Fisher Analysis Conclusions tirées –Intérêt de la réduction : tous sauf Eigenface –LSDA = meilleur taux. Différence significative avec peu de données dapprentissage –Dimension optimale pour LSDA = nb classes – 1 Temps gagné : pas de test exhaustif

9 Apprentissage et Fouille de Données - 7/3/ Conclusion Principal intérêt de LSDA = préservation dans les données –de la discrimination entre classe –de la structure géométrique locale Les 2 expériences menées tendent à prouver lefficacité de cet algorithme

10 Apprentissage et Fouille de Données - 7/3/ Avis personnel analyse des faiblesses de LDA concepts tirés dun large panel darticles Les graphes des plus proches voisins ainsi que le critère à optimiser sont présentés de façon claire et compréhensible Généralisation aux espaces fortement non linéaires expériences discutables –peu de données –autres algorithmes ont apparemment de nombreuses applications


Télécharger ppt "Apprentissage et Fouille de Données - 7/3/2007 1 Locality Sensitive Discriminant Analysis Deng Cai, Xiaofei He, Kun Zhou, Jiawei Han, Hujun Bao Apprentissage."

Présentations similaires


Annonces Google