Chapitre 7 Réseau ART.

Slides:



Advertisements
Présentations similaires
LES NOMBRES PREMIERS ET COMPOSÉS
Advertisements

Aires et périmètres.
Le moteur
CARACTERISTIQUES D’UN ENSEMBLE DE FORCES
FORMATION DE FAISCEAU.
Qui a le nombre qui vient après 8 ?
LIRMM 1 Journée Deuxièmes années Département Microélectronique LIRMM.
Classe : …………… Nom : …………………………………… Date : ………………..
Est Ouest Sud 11 1 Nord 1 Laval Du Breuil, Adstock, Québec I-17-17ACBLScore S0417 Allez à 1 Est Allez à 4 Sud Allez à 3 Est Allez à 2 Ouest RndNE
ACTIVITES Le calcul littéral (3).
Les Prepositions.
Les 3 dimensio ns de la morale et de léthique (activité)
LES RESEAUX DE NEURONES
Mathador Flash Cycles 2 et 3 Deux formules de jeu : Partie Flash - Qui calculera le plus vite Principe du « Compte est bon » au plus.
La diapo suivante pour faire des algorithmes (colorier les ampoules …à varier pour éviter le « copiage ») et dénombrer (Entoure dans la bande numérique.
5 Verbes au passé composé 1.Jai eu avoir 2. Jai du devoir.
Mr: Lamloum Med LES NOMBRES PREMIERS ET COMPOSÉS Mr: Lamloum Med.
28 La maison.
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Journée Jeunes Chercheurs
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Des RRA à la diagnosticabilité
PAFI Référentiel de données par Sonia Watts DGIF (Direction de la gestion et de linformation forestière) 27 octobre 2010 et 3 novembre 2010.
Une théorie générale des réseaux connexionnistes
Classification Multi Source En Intégrant La Texture
2-1 CIRCUITS ÉLECTRIQUES SIMPLES
Applications du perceptron multicouche
SUJET D’ENTRAINEMENT n°2
LABSENTEISME EN 2012 Les résultats de lenquête 1.
LES NOMBRES PREMIERS ET COMPOSÉS
Réseaux de neurones.
La Saint-Valentin Par Matt Maxwell.
IFT 616 Intelligence Artificielle
Les réseaux de neurones compétitifs
Mémoires associatives
Résumé Domaine des réseaux de neurones.
GPA-779 Perceptron multicouche
Synthèse Applications des réseaux de neurones en reconnaissance de formes et en vision par ordinateur.
Représentation des systèmes dynamiques dans l’espace d’état
Résumé Domaine des réseaux de neurones.
Représentation des systèmes dynamiques dans l’espace d’état
Notre calendrier français MARS 2014
3ème partie: les filtres
C'est pour bientôt.....
Veuillez trouver ci-joint
CALCUL LITTERAL I LA DISTRIBUTIVITE k ( a + b ) = k a + k b 1° Règle
2.2 PRODUIT SCALAIRE ET CALCUL D’ANGLES
Parcours d'une séquence de longueur fixe
Les réseaux de neurones compétitifs
Page 1 © Jean Elias Gagner en agilité numérique. Page 2 © Jean Elias Les fournisseurs.
Chapitre 6 Réseaux récurrents.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
LUNDI – MARDI – MERCREDI – JEUDI – VENDREDI – SAMEDI – DIMANCHE
Stage 2A CS80 pour Origin 1/28. 1) Presentation of the internship 2) The Multi-Oscillator 3) Connection-GUI’s API Conclusion Stage 2A CS80 pour Origin.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
Traitement de différentes préoccupations Le 28 octobre et 4 novembre 2010.
ECOLE DES HAUTES ETUDES COMMERCIALES MARKETING FONDAMENTAL
1 Modèle pédagogique d’un système d’apprentissage (SA)
10 paires -. 9 séries de 3 étuis ( n° 1 à 27 ) 9 positions à jouer 5 tables Réalisé par M..Chardon.
CALENDRIER-PLAYBOY 2020.
USAM BRIDGE H O W E L L -CLASSIQUE
6 Nombres et Heures 20 vingt 30 trente 40 quarante.
9 paires séries de 3 étuis ( n° 1 à 27 )
Quel est l’intérêt d’utiliser le diagramme de Gantt dans la démarche de projet A partir d’un exemple concret, nous allons pouvoir exploiter plusieurs parties.
Architecture Chapitre 4 Interruptions. 2 Plan Principe Schéma d’acquisition Les états d’une interruption Décentralisation des interruptions Exemples.
GPA-779 Application des systèmes experts et des réseaux de neurones.
Perceptron multicouche
Transcription de la présentation:

Chapitre 7 Réseau ART

Plan Compétition de base: Le gagnant emporte tout Modèle générique ART Structure ART1 Améliorations: ART2 ARTMAP

Découverte K. Mehrotra, C.K. Mohan et S. Ranka, Elements of Artificial Neural Networks, MIT Press, 1997. Coup de coeur Traitement complet Algos génériques Exemples nombreux G.A. Carpenter et S. Grossberg, Neural Networks for Vision and Image Processing, MIT Press, 1992 Répertoire de contributions Suite d’une conférence à Boston en 1991 Orienté recherche «égaré» à l’hiver 2003 J.A. Freeman et D.M. Skapura, Neural Networks: Algorithms, Applications and Programming Techniques, Addison Wesley, 1991 Couvre les principaux modèles: adaline, madaline, perceptron, BAM, Hopfield, SOM, ART, neocognitron Source d’inspiration pour plusieurs acétates Traitement complet, bien illustré

Vue d’ensemble

7.1 Couche de compétition Gagnant-emporte-tout Modèle de base de plusieurs réseaux non-supervisés

Architecture y1 y2 yM x1 x2 x3 x4

Compétition : soit ym* le neurone avec la sortie maximale Activation Produit scalaire. La sortie est proportionnelle au cos de l’angle entre l’entrée et le vecteur de poids Compétition : soit ym* le neurone avec la sortie maximale ym* = 1 ym≠m* = 0

Apprentissage Le neurone le plus activé gagne la compétition. Son indice est m*. Sa sortie ym* est placée à 1 Tous les autres neurones ont leur sortie à 0 Renforcement des liens du neurone gagnant

x: vecteur de poids •: vecteur d’entrée a) avant l’apprentissage b) après l’apprentissage x: vecteur de poids •: vecteur d’entrée

Phase de compétition Solution logicielle: Max. (Y)  ym* = 1 ymm* = 0 Solution neuronique: inhibition y1 y2 yM net1 net2 netM

Exercice y1 y2 y3 y4 0,8 0,2 0,4 0,6

7.2 Modèle générique ART ART: Adaptive Resonnance Theory Classification non-supervisée

Composantes: Connexions: Couche d’entrée F1 Sous-couche d’entrée F1(a) Sous-couche d’interface F1(b) Couche de classification F2 compétition Mécanisme de comparaison Connexions: Rappel (F1  F2) bji Modèle (F2  F1) tij

Phases d’opération

Caractéristiques Apprentissage non-supervisé Mémoire incrémentale Catégorisation par regroupement de caractéristiques. Apprend les regroupements. Mémoire incrémentale On peut ajouter de nouvelles catégories sans effacer ce qui a été appris. Inspiration biologique Phénomène de base : éveillement Dilemme stabilité  platicité Mémoire incrémentale: le problème avec le réseau à rétropropagation, c’est que lorsque l’apprentissage est terminé, on ne peut plus apporter de modifications aux poids du réseau. Si une nouvelle catégorie ou exemple est soumis au réseau, on doit recommencer avec les nouveaux exemples ET les anciens. Ex.: profils d’avion. Inspiration biologique: La théorie de la résonnance adaptative par Carpenter, Grossberg et l’équipe de l’Université de Boston a été développée durant les années 70, 80 et 90. Le phénomène de base de cette théorie est l’éveillement. Une forme est emmagasinée si elle n’appartient à aucune catégorie  Éveil  Nouveauté  Adaptation. Ce type de réseau répond à une question de survie (ex.: tigre qui bondit).

Structure du ART 1 RAZ F2 Catégories G1 G2 + - + - F1 Caractéristiques j G1 G2 + - + - RAZ F1 Caractéristiques i La couche F1 est aussi appelée la mémoire à court terme du réseau Les connexions W représentent la mémoire à long terme du réseau Les neurones G1 et G2 ont été ajoutés au modèle ART pour la plausibilité biologique: un neurone ne peut avoir un comportement différent dans le temps par lui-même.

Couche F1 : couche de comparaison de F2 tij à RAZ Activité X1i si G1 G1=0 (inhibé)  F2  0 Donc, aussitôt que de l’activité se produit dans F2 G1=1 xi seulement G1=0 F2•xi À cause règle 2/3: G1=1  si=xi•1 G1=0  si=F2•xi xi

Couche F2 : couche des catégories à toutes les unités de F2 - - + - Activité X2j yj G2 de RAZ bji tij de F1 à F1

Fonctionnement Contrôle de gain: G1 et G2 Vigilance Permettent de contrôler le contenu de F1 Règle du 2/3: une unité dans F1 ou F2 est activée si 2 entrées sur 3 sont activées Vigilance L’entrée est comparée avec le prototype (modèle) généré par F2. Fonction ET sur F1 Si comparaison <  RAZ activé  = facteur d’éveil 0 <  < 1 pour ≈1 X doit égaler exactement F1 retourné par F2

Compétition (couche de compétition F2) y1 y2 yM net1 net2 netM Compétition (couche de compétition F2) Les mêmes connexions se répètent pour toutes les unités Résultat: ym* = 1 pour l’unité la plus activée ymm* = 0 pour toutes les autres unités

Illustration du fonctionnement

Algorithme 0- Initialisation 2 0,9 1/1+I 1 1- Forme Xk présentée à F1 a) X=0  G2=0  F2=0 b) X=S  G2=1 F1(b) contient la forme S (=Xk) Fig. 8.2a 2- S propagé sur F2 Fig. 8.2a

3-. Compétition en F2. Forme résultat Y=yj. (1 neurone activé). Fig. 8 3- Compétition en F2. Forme résultat Y=yj* (1 neurone activé) Fig. 8.2b 4- Y projeté sur F1 G1 inhibé F1 contient X•Y projeté = S Fig. 8.2b 5- Appariement 6- RAZ activé Fig. 8.2c Neurone Y désactivé et inhibé yj*= -1  2 7- Renforcir Wf allant à Y 8- Renforcir Wb partant de Y 9- Enlever X G2=0 Ré-activer les neurones inhibés dans F2 (rés. de RAZ) Fig. 8.2d 10- Retour à 1

Exemple - ART1 Pour un facteur de vigilance de l’ordre de 0,9, 2 classes seulement sont formées: le C et le E-F Les poids sont renforcés pour I•Exemple emmagasiné précédent

ART1: convergence et robustesse

Améliorations ART1: Entrées binaires ART2: Entrées analogiques Normalisation + Contraste ARTMAP: ART1s ou ART2s couplés avec apprentissage supervisé ( augmenté pour certains exemples)

ART2

ARTMAP