Réseaux de neurones à base radiale

Slides:



Advertisements
Présentations similaires
Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
Advertisements

Apprentissage spectral
Efficient Simplification of Point-Sampled Surfaces
Cours 3-b Méthode des éléments finis 1D
Cours 5-b Problèmes spatio-temporels d’ordre 1 en temps
Les K plus proches voisins
LES RESEAUX DE NEURONES
3. Analyse et estimation du mouvement dans la vidéo
A Pyramid Approach to Subpixel Registration Based on Intensity
Laboratoire dInformatique et dImagerie Industrielle Traitement des Images Couleur Partie 3 : un exemple de traitement dimages couleur : Correction chromatique.
Modélisation des systèmes non linéaires par des SIFs
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Concepts avancés en mathématiques et informatique appliquées
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Les principaux résumés de la statistique
Classification Multi Source En Intégrant La Texture
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Applications du perceptron multicouche
ASI 3 Méthodes numériques pour l’ingénieur
Reconnaissance de visages
Concepts avancés en mathématiques et informatique appliquées
Méthode des k plus proches voisins
DEA Perception et Traitement de l’Information
RECONNAISSANCE DE FORMES
Construction de modèles visuels
Rappel... Solution itérative de systèmes linéaires (suite et fin).
RECONNAISSANCE DE FORMES
DEA Perception et Traitement de l’Information
Techniques d’optimisation
Réseaux de neurones.
Exemple en dynamique de population
Méthodes de prévision (STT-3220)
Les réseaux de neurones
Chapitre 7 Réseau ART.
GPA-779 Perceptron multicouche
Synthèse Applications des réseaux de neurones en reconnaissance de formes et en vision par ordinateur.
Visualisation de surfaces décrites analytiquement
Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE.
PIF-6003 Sujets spéciaux en informatique I
RECONNAISSANCE DE FORMES
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Interprétation automatique
TRAITEMENT D’IMAGE SIF-1033.
La régression multiple
Classification automatique de textes
La décomposition en valeurs singulières: un outil fort utile
Introduction à la reconnaissance:
Classification : objectifs
Présentation du marché obligataire
Christelle Scharff IFI 2004
STATISTIQUES – PROBABILITÉS
Sujets spéciaux en informatique I PIF Approches non-paramétriques u Technique de classification NN u Technique de classification k-NN u Erreurs.
S. Canu, laboratoire PSI, INSA de Rouen
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Analyse spectrale Raphaël ARROUAS Etienne OUSS
Karima Tabari1, Mounir Boukadoum1, Sylvain Chartier2,3, Hakim Lounis1
Reconnaissance de chiffres manuscrits
Les réseaux de neurones à réservoir en traitement d’images
SVM machine à vecteurs de support ou séparateur à vaste marge
Mémoires associatives Le modèle BSB/Eidos Mounir Boukadoum.
Le chaos pourquoi ? Permet de modéliser un type de mouvement récent qui n’est ni uniforme, ni accéléré. Des dynamiques chaotiques ont été mises en évidence.
Méthode des moindres carrés (1)
GPA-779 Application des systèmes experts et des réseaux de neurones.
Idées apprentissage couche L3: démarche ascendante ou descendante Temps du premier spike: -conception filtre à la main -apprentissage suivant une règle.
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
PIF-6003 Sujets spéciaux en informatique I
Analyse des semis de point
Traitement d’images Semaine 09 v.A15.
Transcription de la présentation:

Réseaux de neurones à base radiale

Introduction Une fonction de base radiale (FBR) dépend de manière non croissante de la distance entre la variable indépendante et un vecteur de référence. Les FBRs représentent des récepteurs locaux; dans la figure, chaque point vert est un vecteur de référence pour une FBR. Un réseau à base radiale contient une couche cachée constituée de FBRs. Une unité de sortie réalise la combinaison linéaire de leurs sorties. w3 Les coordonnées du point noir sont “interpolées” à l’aide de celles des trois points verts, dont la contribution individuelle de chacun dépend de sa distance du point noir et de son poids w. Dans l’illustration : w2 w1

Architecture RBR Couche cachée : fonction d’activation/sortie FBR x2 xm x1 y wm1 w1 Couche de sortie ; combinateur linéaire. Peut être suivi d’une fonction de sortie au besoin Couche cachée ; les « poids » sont les coordonnées des centres des FBR Couche tampon Couche cachée : fonction d’activation/sortie FBR Sont généralement des gaussiennes Unité de sortie : fonction d’activation/sortie linéaire.

Modèle des unités cachées Unités cachées : Utilisent des FBR φ( || x - t||) La sortie dépend de la distance entre L’entrée x et le centre t x1 φ( || x - t||) t est le centre est l’étendue t et  sont à déterminer x2 xm

Propriétés des unités cachées Un neurone caché est plus sensible aux entrées situées proche de son centre. Pour un FBR de type gaussien, la sensibilité est réglée à l’aide du paramètre d’étendue , pour lequel une valeur plus grande signifie moins de sensibilité. Plausibilité biologique: Les cellules cochléaires stéréociliaires du système auditif possèdent des réponses qui sont optimales pour des bandes de fréquences données. centre  grand  petit

Différentes sortes de FBR Multiquadriques Multiquadriques inverses Gaussiennes (les plus utilisées)

ILLUSTRATION DU RÔLE DE LA COUCHE CACHÉE f( ) f(.)

Exemple: le problème du OU-X (1,1) (0,1) (0,0) (1,0) x1 x2 Espace simuli (problème) : Espace réseau (solution) : Construire un classifieur RBR tel que : (0,0) et (1,1) sont projetés sur 0 (classe C1) (1,0) et (0,1) sont projetés sur 1 (classe C2) y 1

le problème du OU-X (2) Dans l’espace des traits (couche cachée) : x1 Une fois projetées dans la couche cachée, C1 and C2 deviennent linéairement séparables, permettant au classifieur linéaire à la sortie de prendre 1(x) and 2(x) comme entrées et donner la bonne sortie OU-X. x1 x2 t1 +1 -1 t2 y φ1 φ2 1.0 (0,0) 0.5 (1,1) Frontière de décision (0,1) et (1,0)

Paramètres d’un réseau RBR Que doit-on connaître (apprendre) pour un réseau RBR donné ? Le nombre de FBR Les centres des FBR Les étendues des FBR Les poids entre la couche cachée et la couche de sortie Plusieurs algorithmes d’apprentissage sont possibles

Algorithme d’apprentissage 1 Centres : sélectionnés aléatoirement Les centres sont choisis aléatoirement en partant de l’ensemble d’apprentissage Étendues: déterminées par normalization : La fontion d’activation/sortie d’un neurone caché i est alors :

Algorithme d’apprentissage 1 Poids: Déterminés par la méthode de la matrice pseudo-inverse : Considérons la sortie du réseau pour la paire d’apprentissage : Nous voulons avoir pour chaque xi :

Algorithme d’apprentissage 1 On peut réécrire les équations précédentes : pour un exemple d’apprentissage xi donné, et pour tous les exemples simultanément

Algorithme d’apprentissage 1 Si on pose Alors on a : et où est la matrice pseudo-inverse de

Principe du pseudo inverse Soit un vecteur X = (X1…Xp) et une relation linéaire : Règle des moindres carrés : min

Résumé de l’algorithme Choisir les centres aléatoirement à partir de l’ensemble d’apprentissage. Déterminer les étendues des FBR en utilisant la méthode de normalisation. Trouver les poids de sortie en utilisant la méthode de la pseudo-inverse.

Algorithme d’apprentissage 2 Centres : déterminés par un l’algorithme de groupement des k moyennes adaptatif Initialisation: tk(0) aléatoire k = 1, …, m1 Échantillonnage : on tire x dans l’espace d’apprentissage Appariement par similarité: trouver l’index du centre le plus proche de x Mise à jour : adaptation des centres Continuation: n=n+1, aller à 2 et continuer jusqu’à ce que les centres se stabilisent (changent peu).

Algorithme d’apprentissage 2 Étendues : déterminés par un algorithme basés sur les plus P plus proches voisins Un nombre P est choisi, et pour chaque centre, les P centres les plus proches sont déterminés. La distance quadratique moyenne entre le centre courant et les centres de ses P plus proches voisins est calculée, et est utilisée comme valeur de . Si le centre du groupe courant est cj, la valeur de  est : Une valeur typique pour P est 2, auquel cas  est la distance moyenne entre les deux plus proches centroÍdes voisins.

Résumé de l’algorithme Processus d’apprentissage hybride: Algorithme de groupement pour trouver les centres. Étendue fixée par normalisation des distances entre P plus proches voisins. Poids déterminés par un algorithme de moindres carrés (e.g. Adaline)

Algorithme d’apprentissage 3 Appliquer la technique de descente de gradient pour trouver aussi bien les centres, les étendues et les poids, de manière à minimiser l’erreur quadratique Centres Étendues Poids

Comparaison RBR-PMC Tous les deux approximateurs universels de fonctions L2. Réseaux non récurrents à couches multiples. RBR surtout utilisé pour la régression et la classification binaire. RBR apprend plus vite que PMC La couche cachée RBR est souvent plus facile à interpréter que celle d’un PMC Après apprentissage, les réseaux RBR sont généralement plus lents en phase de rappel.

Comparaison RBR-PMC Architecture: Modèle de neurone: RBR possède une seule couche cachée. Modèle de neurone: Dans RBR, le modèle des neurones cachés est différent de celui des neurones de sortie. La couche cachée dans RBR est non-linéaire, celle de sortie est linéaire. PMC peut posséder plus d’une couche cachée. Dans PMC, le modèle de neurone dans les différentes couches peut être le même. Dans PMC, toutes les couches peuvent être non-lineaires.

Comparaison RBR-PMC Fonctions de sortie : Approximation: Dans RBR, l’argument d’une FBR de la couche cachée est la distance (euclidienne ou autre) entre un vecteur d’entrée et le centre de l’unité. Dans PMC, l’argument d’un neurone caché est le produit scalaire d’un vecteur d’entrée et du vecteur des poids synaptiques qui alimentent le neurone. Approximation: Les réseaux RBR construisent généralement une approximation locale de projections non-linéaires. Peuvent demander plus de ressources mais mènent à des représententations terses et linéairement decodables. Les réseaux PMC construisent une approximation globale des mêmes projections. Peuvent êter difficiles à interpréter.

Application: Reconnaissance de visages Le problème : Reconnaitre des visages de personnes faisant partie d’un groupe dans un environnement intérieur. L’approche: Apprendre les différentes classes, chacune représentant des poses diverses d’un même visage en utilisant un réseau RBR.

Données Base de données 100 images de 10 personnes (tons de gris sur 8 bits, résolution de 384 x 287) Pour chaque individu, 10 images de la tête vue de face et de profil Conçue pour évaluer la performance de techniques de reconnaissance du visage en présence de variations de l’angle de prise de vue.

Données Images des classes 0-3 de la base de données Sussex, centrées sur le nez et réduites à un format de 25x25 avant traitement

Approche: RBR pour chaque visage Un réseau RBR par personne est utilisé pour reconnaître le visage de la personne. L’apprentissage utilise des exemples d’images de la personne à reconnaître comme évidence positive et des images d’autres personnes pouvant prêter à confusion comme évidence négative.

Architecture du réseau La couche d’entrée contient 25*25 entrées répréseantant les intensités (normalisées) des pixels d’une image. La couche cachée contient p+a neurones: p neurones cachés pro (récepteur pour évidence positive) a neurones cachés con (récepteurs for évidence negative) La couche de sortie contient deux neurones: Un pour la personne visée. Un pour toutes les autres. Le résultat est ignoré si la différence absolue entre les sorties des deux neurones est inférieure à un seuil R.

Architecture pour reconnaître un visage Unités de sortie linéaires Supervisé Unités FBR Non-linéaires Non supervisé Unités d’entrée

Couche cachée Les unités cachées peuvent être : Neurones pro : Évidence positive pour la personne. Neuones anti : Évidence négative pour la personne. Le nombre de neurones pro est égal aux exemples positifs dans l’ensemble d’apprentissage. À chaque Neurone pro correspondent un ou deux neurones anti. Modèle de neurone caché : FBR gaussienne.

Apprentissage et test Centres: d’un neurone pro : l’exemple positif correspondant D’un neurone anti : l’exemple négatif le plus similaire au neurone pro correspondant, en utilisant une distance euclidienne. Étendue : distance moyenne entre le centre du neurone et tous les autres centres. L’étendue d’un neurone caché est donc où H est le nombre de neurones cachés et est le centre du neurone . Poids: déterminés par la méthode du pseudo inverse. Un réseau RBR avec 6 neurones pro, 12 neurones anti, et R égal à 0.3, rejeta 23 % des images de l’ensemble de test et classa correctement 96 % des images retenues.