Apprentissage spectral

Slides:



Advertisements
Présentations similaires
Traitement d’images : concepts avancés
Advertisements

Apprentissage semi-supervisé
S. Meshoul & M. Batouche Equipe Vision, Laboratoire LIRE
Regroupement (clustering)
Regroupement (clustering)
Évaluation de la qualité d'une clusterisation
Image et apprentissage
LES RESEAUX DE NEURONES
Application de réseaux bayésiens à la détection de fumées polluantes
Présentation d’un modèle d’aide à la réalisation d’un jeu : BatSim
Xialong Dai, Siamak Khorram
Apprentissage et Fouille de Données
Visualisation d’information interactive 5 : Graphes
E-Motion Group © Olivier Aycard (E. Gaussier) Université Joseph Fourier Méthodes de classification.
R. Saint-Paul, G. Raschia and N. Mouaddib IRIN, Nantes (France)
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Classification automatique de documents
Concepts avancés en mathématiques et informatique appliquées
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Septième étape : travailler avec des graphes probabilistes
Classification Multi Source En Intégrant La Texture
Classification automatique de documents XML : le système Semistix Alexandre Termier Marie-Christine Rousset Michèle Sebag Séminaire du 23/01/2001 Université
ASI 3 Méthodes numériques pour l’ingénieur
Reconnaissance de visages
Méthode des k plus proches voisins
Concepts avancés en mathématiques et informatique appliquées MAP-6014.
Construction de modèles visuels
RECONNAISSANCE DE FORMES
Introduction aux matrices : exemples en dynamique de population
Transformation linéaires
Rappel... Systèmes dynamiques: discrets; continus.
Modèles d’implantation
Chapitre 7 Réseau ART.
Cours 2 Recherche d'informations Espace vectoriel des sacs de mots.
Apprentissage semi-supervisé
Recherche Opérationnelle
AIP PRIMECA des Pays de La Loire – 9 novembre 2006
Recherche dun même objet / scène Approches basées sur des descripteurs locaux Approches basées sur des descripteurs globaux.
Structures de données IFT Abder Alikacem Linéarisation des matrices Département dinformatique et de génie logiciel Édition septembre 2009.
Recherche d’ensembles chromatiques
Exploration systématique de graphes
Classification automatique de textes
La décomposition en valeurs singulières: un outil fort utile
Introduction à la reconnaissance:
Avignon, 14 novembre 2006http://biobimo.eurecom.fr Sous-Projet 4 : Segmentation et Authentification conjointes de la voix et du visage Etat de l’art -
Etude d’une colonne Erreur d’approximation
Deux sujets traités La segmentation d’images
Apprentissage (III) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes.
Classification : objectifs
Extraction de segments pour la reconnaissance de symboles : Une approche robuste par Transformée de Hough Présenté par : Simon BERNARD Encadré par : Jean-Marc.
Sujets spéciaux en informatique I PIF Approches non-paramétriques u Technique de classification NN u Technique de classification k-NN u Erreurs.
Réunion MODULOME 28/05/2008 Christine ROUSSEAU L'analyse des CRISPR et des gènes associés comme répétitions locales et voisine MODULOME.
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
Réseaux de neurones à base radiale
Classification pixel par pixel
Présentation RFIA janvier 2002
Fusion de paramètres en classification Parole/Musique Julie Mauclair – Equipe Parole Julien Pinquier – Equipe SAMoVA.
Reconnaissance de chiffres manuscrits
Sujets spéciaux en informatique I
Calendrier (sur MathSV)
Combating Web Spam with TrustRank. OSINI Aurélien.
Sabrina Tollari, Hervé Glotin, Jacques Le Maitre
20/06/2015propagation de signatures lexicales dans le graphe du Web 1 Propagation de signatures lexicales dans le graphe du Web M. Bouklit M. Lafourcade.
Classification automatique des messages électroniques
Surfaces de Bézier.
Traitement d’images 420-D78-SW A15 Semaine 02.
Partie II : Segmentation
Apprentissage semi-supervisé avec des modèles discriminants : application au résumé automatique de texte Massih-Réza Amini LIP6, Université de Paris VI.
Reconnaissance d’objets 3D –point de vue complètement différent –pas d’invariant 3D Difficultés :
IFT 501 Recherche d'information et forage de données Chaptitre 8 : Classification automatique concepts de base et algorithmes André Mayers Automne 2014.
Transcription de la présentation:

Apprentissage spectral Spectral learning S. D. Kamvar, D. Klein, C. D. Manning IJCAI-03, 2003

Introduction Les algorithmes spectraux utilisent l'information contenue dans les vecteurs propres de la matrice d'affinité des données pour détecter des structures Applications : recherche d'information web, segmentation d'images, traitement de document, clustering, etc. Idée : développer des algorithmes spectraux pour l'apprentissage supervisé  Adapter les méthodes "spectral clustering" à la classification (supervisée)

Algorithmes de spectral clustering Matrice d'affinité et Matrice de transition de Markov (probabilités) Pour 2 points xi et xj on associe la distance d(xi, xj). On définit la matrice d'affinité A par :  est un paramètre libre Les méthodes spectrales utilisent différentes normalisations : Algorithme Normalisation Formule MNCUT Asymétrie N = D-1A NJW Symétrie N = D-1/2AD-1/2 LSA* Rien N = A SL Normalisée N = (A + dmaxI – D)/dmax D = diag{Dii} avec : dmax = max(Dii) *Latent Semantic Analysis

Sélection du paramètre libre sigma L'importance de la sélection du paramètre sigma est souvent négligée (L'auteur renvoie à NJW On spectral clustering: Analysis and an algorithm, NIPS 14, 2002) :  K plus proches voisins  distance moyenne  plage de stabilité des résultats, etc.

Algorithme d'apprentissage spectral Représentation spectrale Former la matrice d'affinité Définir la matrice degré D Normaliser N = (A + dmaxI – D)/dmax Chercher les k plus grands vecteurs propres : x1, ..., xk pour former la matrice X  RNxk Normaliser X pour avoir les lignes de module 1 Clustering Traiter chaque colonne comme un point dans Rk. Classer dans l'espace spectral en k classes par k-means ou autre algorithme Affecter les points d'origine i à la classe j SSI la ième colonne de X a été affectée à la classe j Classification Représenter chaque point i par sa colonne Xi de X Classer les colonnes comme points dans Rk par un classifieur supervisé avec labels Affecter chaque point i à la classe c à laquelle Xi a été affectée.

Classification spectrale Comment intégrer les labels dans le graphe ? Les points non labellisés ont leurs poids % à leurs similarités donc leurs affinités comme en spectral clustering Pour chaque paire de points (i, j) qui sont issus de la même classe mettre : Aij = Aji = 1 Pour chaque paire de points (i, j) qui sont de classes différentes mettre : Aij = Aji = 0 Normaliser A : N = (A + dmaxI – D)/dmax Lien avec Constrained Spectral Clustering : Les points sans labels ont leurs poids % à leurs similarités donc leurs affinités sont comme avant Must-links : 2 points de même classe (sans connaître le label) : Aij = Aji = 1 Cannot-links : 2 points de classes différentes : Aij = Aji = 0 Normaliser A : N = (A + dmaxI –D)/dmax

Résultats