Mémoires associatives

Slides:



Advertisements
Présentations similaires
LES NOMBRES PREMIERS ET COMPOSÉS
Advertisements

Le moteur
Est Ouest Sud 11 1 Nord 1 Howell 6½ et 7 tables 13 rondes – 26 étuis Laval Du Breuil Adstock, Québec Allez à 2 Est-Ouest Allez à 6 Est-Ouest 6 séries détuis.
5 séries d’étuis après la table 8
CARACTERISTIQUES D’UN ENSEMBLE DE FORCES
Classification des signaux exemples de signaux réels
LIRMM 1 Journée Deuxièmes années Département Microélectronique LIRMM.
Les numéros
Est Ouest Sud 11 1 Nord 1 Individuel 13 joueurs 13 rondes - 26 étuis Laval Du Breuil Adstock, Québec Allez à 2 Est I séries détuis entre les tables.
Est Ouest Sud 11 1 Nord 1 RondeNE SO
Est Ouest Sud 11 1 Nord 1 Individuel 23 ou 24 joueurs 14 rondes - 28 étuis Laval Du Breuil Adstock, Québec Placer 4 étuis sur chaque table S et E changent.
Est Ouest Sud 11 1 Nord 1 Individuel 15 ou 16 joueurs 15 rondes - 30 étuis Laval Du Breuil Adstock, Québec I-16-15ACBLScore S0415 RndNE
Sud Ouest Est Nord Individuel 14 joueurs 14 rondes - 28 étuis
ACTIVITES Le calcul littéral (3).
Les Prepositions.
Les 3 dimensio ns de la morale et de léthique (activité)
LES RESEAUX DE NEURONES
La diapo suivante pour faire des algorithmes (colorier les ampoules …à varier pour éviter le « copiage ») et dénombrer (Entoure dans la bande numérique.
SYMETRIE CENTRALE OU SYMETRIE PAR RAPPORT A UN POINT.
1 Analyse de la variance multivariée Michel Tenenhaus.
Mr: Lamloum Med LES NOMBRES PREMIERS ET COMPOSÉS Mr: Lamloum Med.
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Des RRA à la diagnosticabilité
Une théorie générale des réseaux connexionnistes
Application des algorithmes génétiques
Réseaux de neurones artificiels « la rétropropagation du gradient »
GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 1 Plan 2- Domaines dapplication ClassificationRegroupement ApproximationPrédiction.
Applications du perceptron multicouche
Des observatoires aux satellites Le système GPS
LUNDI – MARDI – MERCREDI – JEUDI – VENDREDI – SAMEDI – DIMANCHE
Réseaux de neurones.
La Saint-Valentin Par Matt Maxwell.
Louis la grenouille Paroles et musique: Matt Maxwell.
Les réseaux de neurones compétitifs
Chapitre 7 Réseau ART.
GPA-779 Perceptron multicouche
Synthèse Applications des réseaux de neurones en reconnaissance de formes et en vision par ordinateur.
Résumé Domaine des réseaux de neurones.
SPI - Serial Peripheral Interface
Les modèles linéaires (Generalized Linear Models, GLM)
Corrélation Principe fondamental d’une analyse de corrélation
3.1 DÉTERMINANTS (SUITE) Cours 6.
3.2 PRODUIT VECTORIEL Cours 7.
Notre calendrier français MARS 2014
Quelle heure est-il ??. THE TIME: OCLOCK IL EST HEURE IL EST + + HEURES etc.
3ème partie: les filtres
C'est pour bientôt.....
Les nombres.
Veuillez trouver ci-joint
Les réseaux de neurones compétitifs
Chapitre 6 Réseaux récurrents.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
DEA Perception et Traitement de l’Information
LUNDI – MARDI – MERCREDI – JEUDI – VENDREDI – SAMEDI – DIMANCHE
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
Traitement de différentes préoccupations Le 28 octobre et 4 novembre 2010.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
1 Modèle pédagogique d’un système d’apprentissage (SA)
Apprentissage avec un réseau de neurones artificiels
* Source : Étude sur la consommation de la Commission européenne, indicateur de GfK Anticipations.
10 paires -. 9 séries de 3 étuis ( n° 1 à 27 ) 9 positions à jouer 5 tables Réalisé par M..Chardon.
CALENDRIER-PLAYBOY 2020.
USAM BRIDGE H O W E L L -CLASSIQUE
9 paires séries de 3 étuis ( n° 1 à 27 )
Quel est l’intérêt d’utiliser le diagramme de Gantt dans la démarche de projet A partir d’un exemple concret, nous allons pouvoir exploiter plusieurs parties.
Transcription de la présentation:

Mémoires associatives  Chapitre 5 Mémoires associatives

Plan Architecture Phases d’opérations Catégories Entraînement Hebb Delta Mémoire anticipative Mémoire itérative

Découverte 3 livres du groupe PDP Bibles de l’époque Vol. 1: théorie 1986 Vol. 2: modèles bio. 1986 Vol. 3: modèles informatiques 1988 successeur: PDP++ 2003 http://psych.colorado.edu/~oreilly/PDP++/PDP++.html Bibles de l’époque Modèles info. PC-MAC-UNIX Bases de la rétropropag. Appendice: analyse vectorielle 1. Rumelhart, D.E., J.L. McClelland, and the PDP Research Group, eds. Parallel Distributed Processing - Explorations in the Microstructure of Cognition. Volume 1: Foundations. Computational Models of Cognition and Perception, ed. J.A. Feldman, P.J. Hayes, and D.E. Rumelhart. Vol. 1. 1986, The MIT Press: Cambridge, Massachusetts. 547. 2. McClelland, J.L., D.E. Rumelhart, and the PDP Research Group, eds. Parallel Distributed Processing - Explorations in the Microstructure of Cognition. Volume 2: Psychological and Biological Models. Computational Models of Cognition and Perception, ed. J.A. Feldman, P.J. Hayes, and D.E. Rumelhart. Vol. 2. 1986, The MIT Press: Cambridge, Massachusetts. 611. 3. McClelland, J.L. and D.E. Rumelhart, Explorations in Parallel Distributed Processing - A Handbook of Models, Programs, and Exercises. Computational Models of Cognition and Perception, ed. J.A. Feldman, P.J. Hayes, and D.E. Rumelhart. 1989, Cambridge, Massachusetts: The MIT Press. 353.

Principaux domaines d ’application 1. Classification 2. Regroupement 3. Approximation 4. Prédiction 5. Optimisation de parcours 6. Mémoire associative 7. Commande Application moderne: Bases d’images interrogées par le contenu. Autre façon d’emmagasiner de l’information. Les données sont REPARTIES à travers les connexions du réseau. L’information stockée est rappelée par son CONTENU, et non par son adresse en mémoire, comme dans les systèmes informatiques. Fondement biologique. Entrée: information que l’on désire retrouver. L’information peut être partielle ou bruitée. Elle est SIMILAIRE à l’info stockée. Sortie: forme mémorisée. REF.: Lepage & Solaiman, chap. 6 L. Fausett, Fundamentals of Neural Networks, Prentice Hall, 1994, chap. 3: Pattern Association J.M. Zurada, Introduction to Artificial Neural Systems, West Publishing, 1992, Chap. 6: Associative Memories R. Sabourin, SYS-843: Réseaux de neurones et systèmes flous, notes de cours, chap. 6: mémoires associatives

Reconstruction d ’images

Exemple d’application

5.1 Architecture W x1 y1 y2 x2 xN yM

y1 x1 w1n x2 y2 w2n wmn xn ym wMn xN yM La première ligne de W représente les connexions partant de l’entrée X vers le neurone de sortie y1 Dans la matrice transposée WT, chaque colonne de la matrice transposée représente le vecteur colonne de poids de chaque neurone de sortie Dans W, chaque ligne de la matrice représente le vecteur de poids de chaque neurone de sortie wMn xN yM

La première ligne de W représente les connexions partant de l’entrée X vers le neurone de sortie y1 Dans la matrice transposée WT, chaque colonne de la matrice transposée représente le vecteur colonne de poids de chaque neurone de sortie Dans W, chaque ligne de la matrice représente le vecteur de poids de chaque neurone de sortie

Phases d’opération 1- Entraînement 2- Recherche Prototype à mémoriser: Mémorisation: Entrée: 2- Recherche Idéalement, on désire que la mémoire soit incrémentale, i.e. que l’on puisse ajouter ou soustraire des prototypes sans avoir à recommencer pour les prototypes déjà appris, comme c’est le cas pour le perceptron multicouche. On mémorise les couples Tk:Vk Le vecteur clé X, qu’on appelle aussi la clé de rappel qui nous permet de récupérer le contenu de la mémoire, est transformé en résultat Y par la matrice de poids W. Le résultat est le prototype désiré, ou un prototype parasite. Ces deux phases sont disjointes dans le temps. La matrice de transformation W est d’abord formée. La mémoire peut ensuite être utilisée pour retrouver les prototypes emmagasinés par contenu en fournissant un vecteur d’entrée partiel ou bruité.

Catégories 1- Mémoire auto-associative 2- Mémoire héréro-associative Mémoire auto-associative: est utilisée pour retrouver l’info originale en présence de bruit. Ex.: retrouver un modèle de caractère de référence d’un caractère échantillonné distortionné et/ou bruité. Mémoire hétéro-associative: son  objet braille  lettre odeur  fleur (image)

5.2 Entraînement Règle de Hebb Algorithme 0- Initialisation Wmn = 0 1- Pour chaque paire T : V 2- xn = tn 3- ym = vm 4- Wmn = Wmn(précédent) + xnym L’entraînement correspond à la première phase d’opération d’une MA, celle où on emmagasine les prototypes que l’on désire stocker. C’est une phase préliminaire, avant de pouvoir utiliser la mémoire. Deux règles communes pour bâtir W: Hebb et Delta. Il faudra explorer les vecteurs propres de la matrice W dans des prochaines éditions du cours. Cette forme est rarement utilisée en pratique, mais montre l’origine neuronal de l’algorithme, c’est à dire la loi de Hebb ou de corrélation, qui indique ce qui se passe au poids entre 2 neurones.

Algorithme alternatif: produit externe de vecteurs Variante: mettre à 0 les termes de la diagonale principale. La diagonale représente les connexions terme à terme xii - yii dans le réseau. La valeur constante de ce terme représente le nombre de prototypes emmagasinés et est forcement le poids le plus élevé du réseau. Conséquence: la sortie du réseau aura tendance à reproduire le vecteur à l’entrée, et non le prototype emmagasiné (dont l’entrée constitue une partie qu’on peut récupérer en entier). Par ailleurs, un réseau de Hopfield utilisé en MA n’admet pas de terme non-nul sur la diagonale, question de stabilité.

1- Entrées non-corrélées (vecteurs orthogonaux) 2- Entrées corrélés Phase de recherche Le choix de la règle de Hebb pour l’entraînement dépend en grande partie de la corrélation entre les prototypes d’apprentissage. Entrées non-corrélées: vecteurs sont orthogonaux entre eux. L’angle entre les vecteurs est 90o. X1 • X2 = X1 X2T 1- Entrées non-corrélées (vecteurs orthogonaux) recouvrement total et parfait 2- Entrées corrélés recouvrement croisé (bruit d’intercorrélation)

Capacité d’emmagasinement Maximum: N-1 (si tous les vecteurs d’apprentissage sont orthogonaux) Pour un réseau de Hopfield (mémoire itérative):

Règle Delta Règle itérative utilisée pour des vecteurs à mémoriser qui sont linéairement indépendants mais non-orthogonaux. La règle atténue les effets de corrélation croisée et produit une solution de moindres carrés lorsque les vecteurs ne sont pas linéairement indépendants La règle Delta est similaire à celle dérivée pour le perceptron multicouche.

5.3 Mémoires anticipatives Algorithme 1- Entraînement a) Hebbien b) Delta 2- Forme (partielle ou bruitée) présentée à l’entrée

5.4 Mémoires itératives 5.4.1 Réseau de Hopfield y1 y3 -2 1 1 x1 1 +4 Dans une mémoire itérative, la sortie requiert plusieurs étapes (coups d’horloge) avant de se stabiliser et afficher la sortie correcte. Réseau de Hopfield: Les couches d’entrée et de sortie sont confondues Les connexions sont symétriques Pas de connexion du neurone sur lui-même  stabilité Activation (recherche) asynchrone +4 +1 -1 x2 1 y2

Énergie d’un réseau de Hopfield But: atteindre un creux d’énergie où le réseau sera stable et l’état correspondra à un prototype appris

2- Forme (partielle ou bruitée) présentée à l’entrée Algorithme 1- Entraînement: mémoriser les couples T:V 2- Forme (partielle ou bruitée) présentée à l’entrée yi = xi Relaxation: Pour chaque neurone (pris au hasard):

Un réseau simple de Hopfield On applique l’algorithme de relaxation à ce réseau. Vers quel état stable va-t-il tendre?

Relaxation 6 7 +1 2 1 -1 5 4 3

Les états stables du réseau Avec les poids indiqués, 2 états stables ont été emmagasinés

Un réseau de Hopfield comme MA

5.4.2 Mémoire associative bidirectionnelle - BAM

Exercice Trouver la matrice de transformation W (poids) pour emmagasiner les patrons: »t1=[1 1 -1 -1]; »t2=[-1 1 1 -1];

Solution »t1=[1 1 -1 -1]; »t2=[-1 1 1 -1]; »W=W1+W2 W = »W1=t1'*t1 1 1 -1 -1 -1 -1 1 1 »W2=t2'*t2 W2 = 1 -1 -1 1 -1 1 1 -1 »W=W1+W2 W = 2 0 -2 0 0 2 0 -2 -2 0 2 0 0 -2 0 2 » W0=W-2*eye(4) W0 = 0 0 -2 0 0 0 0 -2 -2 0 0 0 0 -2 0 0