Mémoires associatives Le modèle BSB/Eidos Mounir Boukadoum.

Slides:



Advertisements
Présentations similaires
Un réseau de neurones artificiels montrant la persévérance et la distractibilité dans le wisconsin card sorting test.
Advertisements

GEOGRAPHIE DU CANADA 1232 Lenquête, lanalyse et la pensée critique.
Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
CHAPITRE II : Systèmes à deux degrés de liberté
III. IDENTIFICATION PARAMETRIQUE DES SYSTEMES LINEAIRES
______________________________________________________________________________________________________________________________________________________________________.
RECONNAISSANCE DE FORMES
Transitions de phase en dimensions fractales
Introduction générale aux réseaux de neurones artificiels
Réseaux de Neurones Artificiels
LES RESEAUX DE NEURONES
Le remplacement moléculaire
Qu’est-ce qu’apprendre? Où en sommes-nous avec l’apprentissage?
Objectifs : Améliorer la compréhension orale Bibliothèque de films : Utilisation de wikipédia pour les résumés des films: Visualisation de films, séries.
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Concepts avancés en mathématiques et informatique appliquées
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Chapitre 6 : Restauration d’images
Analyse fréquentielle
Reconnaissance de visages
I.A. Session 2009/2010 E.P.S.I. Bordeaux – C.S.I.I – 2 ème Année – Cours n°3.
PROCESSUS D’APPRENTISSAGE
Grégory Maclair 5 décembre 2008 Laboratoire dImagerie Moléculaire et Fonctionnelle (IMF) – CNRS-UMR 5231 Laboratoire Bordelais de Recherche en Informatique.
SÉMINAIRE DE LANCEMENT DES COURS EN LIGNE
RECONNAISSANCE DE FORMES
Construction de modèles visuels
Correction des Systèmes
Réseaux de neurones.
Exemple en dynamique de population
Séance 12.1 Fournisseur de services (modèle de Dave Ulrich, 1997)
Les réseaux de neurones
Mémoires associatives
Chapitre 7 Réseau ART.
Synthèse Applications des réseaux de neurones en reconnaissance de formes et en vision par ordinateur.
Résumé Domaine des réseaux de neurones.
Courbes de Bézier.
Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE.
RECONNAISSANCE DE FORMES
Pr. M. Talibi Alaoui Département Mathématique et Informatique
Rappel... Matrices bloc. Décomposition des matrices:
Apprentissage avec un réseau de neurones artificiels
 La fondation des réseaux neuronaux : L’être humain apprend d’abord par analogie, et le raisonnement inductif et déductif vient après.  La fondation.
Caractérisation inverse de sources pour l'interaction du champ électromagnétique avec l'environnement Azeddine GATI Y. ADANE, M.F. Wong, J. Wiart, V. Fouad.
Modèle réseau de neurones TODO-> spécifier architecture -> spécifier stimulus Essayer à partir des formules d’apprentissage de faire le lien avec la formule.
GNU Free Documentation License
Présentation du marché obligataire
Christelle Scharff IFI 2004
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Réseaux de neurones à base radiale
Karima Tabari1, Mounir Boukadoum1, Sylvain Chartier2,3, Hakim Lounis1
OUTILS MATHEMATIQUES POUR LES SII
Approximation d’un contrôle optimal par un circuit électronique
Les réseaux de neurones à réservoir en traitement d’images
Calendrier (sur MathSV)
TNS et Analyse Spectrale
SVM machine à vecteurs de support ou séparateur à vaste marge
Le chaos pourquoi ? Permet de modéliser un type de mouvement récent qui n’est ni uniforme, ni accéléré. Des dynamiques chaotiques ont été mises en évidence.
La recherche de vertex dans CMS : le recuit déterministe Nicolas Estre – IPN Lyon – Journées Jeunes Chercheurs 2003.
Méthode des moindres carrés (1)
GPA-779 Application des systèmes experts et des réseaux de neurones.
Les modèles cognitivistes Mémoire et apprentissage
Le réseau de neurones artificiel
Mission Mathématiques IA76
Projet MIKTI : Réunion du THEME V : Evaluation et Maintenance des Ponts Mixtes Pourquoi un tel thème? –Rappels des objectifs du PN: Solutions.
Pierre Joli Cours de Mathématique Pierre Joli
Couche limite atmosphérique Micrométéorologie. Équations de Reynolds 7 équations et 16 inconnues...
APPRENTISSAGE 2.0 et dispositif de formation Apprendre… L’apprentissage dans un contexte techno-pédagogique… Construire son dispositif… Est-ce que je peux.
PROFA. DRA. HELOISA ALBUQUERQUE COSTA AVRIL 2015 PROFA. DRA. HELOISA ALBUQUERQUE COSTA AVRIL 2015 Aquisição e Aprendizagem de Francês Língua Estrangeira.
Transcription de la présentation:

Mémoires associatives Le modèle BSB/Eidos Mounir Boukadoum

Les mémoires associatives pourquoi ?  La mémoire est le résultat d’un processus récurrent  Le rappel mnémonique associe un stimulus (clé) et une information emmagasinée  Le processus de mémorisation devrait être non supervisé  Les modèles de mémoires auto et hétéro-associatives sont plus plausibles biologiquement  Le premiers modèles remontent à Kohonen et Anderson (197x), et Hopfield (1982) ; les titres de noblesse sont dus à Kosko (1986).

Un exemple : le réseau BSB Règle d’apprentissage : Règle d’apprentissage :  A=  x[n]x t [n]  A=  x[n]x t [n] Fonction de sortie : Fonction de sortie : x[n]=f s ((A+I)x[n-1]) x[n]=f s ((A+I)x[n-1])   Réseau monocouche complètement connecté à apprentissage non-supervisé   Inspiré de l’organisation des cellules pyramidales du cervelet   Utilise la contre-réaction positive pour simuler un circuit réverbérant x1 x1 x2 x2 xn xn

Les vecteurs stimuli x[n] évoluent à l’intérieur d’un hypercube dont les sommets constituent les réponses catégoriques. Les vecteurs stimuli x[n] évoluent à l’intérieur d’un hypercube dont les sommets constituent les réponses catégoriques. Fonction de sortie : Fonction de sortie : ai ai  - -  - - X i =f s (a i )

Règle d’apprentissage du BSB Il s’agit de trouver un sous-ensemble de sommets qui représentent, chacun, un stimulus à apprendre de manière uniqueIl s’agit de trouver un sous-ensemble de sommets qui représentent, chacun, un stimulus à apprendre de manière unique  =1 n=7, A[n]=[0],  =1 Tirer un prototype à apprendre au hasard Déterminer x[n] en calculant la fonction de sortie avec A=A[n-1] Appliquer la règle d’apprentissage pour mettre à jour A A[n]  A[n-1] A=A[n}

Faiblesse du modèle BSB original Partant de A=0, on a :Partant de A=0, on a : si xi[0] est un vecteur propre de A Donc, l’apprentissage du réseau consiste à augmenter λ i de Pb :Pb : λ i croît sans cesse et A ne se stabilisera jamais !

Le réseau neuronal BSB/Eidos  Règle d’apprentissage :  A=  x[n]x t [n] -  x[p]x t [p]  A=  x[n]x t [n] -  x[p]x t [p]ou x1 x1 x2 x2 xn xn P=2, n=10,  = 2, β =   Les i de A se stabilisent à la fin et ses vecteurs propres sont orthogonaux (matrice symétrique)  f(  )  = (  /  ) 2(p-n) -1

Progression de  en fonction du nombre d ’essais d ’apprentisage dans le cas d ’ un prototype unique

Échantillonnage dans une grille de 7x5 des lettres à reconnaître

Indice de proximité (Corrélation) entre les lettres

Détermination de  /  qui minimise la période d’apprentissage (n=5, p=10,  =0.001)Détermination de  /  qui minimise la période d’apprentissage (n=5, p=10,  =0.001)  /  Nombre d’essais Choix des paramètres

Spectre des valeurs propres de A en fonction du nombre d ’essais d ’apprentissage

Temps de rappel pour différents niveaux de bruit

Erreur de rappel pour différents niveaux de bruit

Exemple de rappel (lettre A avec 100% de bruit additif)

Peut-on faire mieux ?

Problèmes avec le modèle BSB Sensible aux changements d’échelleSensible aux changements d’échelle Sensible aux translationsSensible aux translations Sensible aux rotationsSensible aux rotations Limité à la reconnaissance de prototypes binairesLimité à la reconnaissance de prototypes binaires La Solution passe par des matrices de grandes dimensions (12X12 et plus) => Pas pratique pour la reconnaissance en temps réel.