Modèle réseau de neurones TODO-> spécifier architecture -> spécifier stimulus Essayer à partir des formules d’apprentissage de faire le lien avec la formule.

Slides:



Advertisements
Présentations similaires
RAPPORT DAVANCEMENT Par Narcisse Talla Tankam CURAT-LETSfévrier-mars 2004.
Advertisements

Réseaux neuronaux - Architectures et algorithmes
Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
Tests et Validation du logiciel
Traitement d’images : concepts avancés
Institut Français de recherche pour l'exploitation de la mer Variabilité hydrologique et courantologique dans le golfe de Gascogne, déterminées à partir.
LES RESEAUX DE NEURONES
PRÉSENTATION D’UNE SÉQUENCE EN SCIENCES DE L’INGÉNIEUR Série S
3. Analyse et estimation du mouvement dans la vidéo
Xialong Dai, Siamak Khorram
Mesure et Instrumentation
8. Les tableaux P. Costamagna – ISEN N1.
Document d’accompagnement
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Le 6 phases de maturité de l’entreprise
Applications du perceptron multicouche
Architecture d’application
Création d’un programme :
Introduction.
Neurogénétique du Développement
Méthodes Connexionnistes Apprentissage Fusion d’informations
Le management strategique
RECONNAISSANCE DE FORMES
Vers la conception objet
Correction des Systèmes
Les réseaux de neurones
Chapitre 7 Réseau ART.
GTS812 cours #9 Le système nerveux. Fonction. Organisation. Histologie. Classification. Principe de base. Potentiel de repos. Potentiel de membrane. Potentiels.
GPA-779 Perceptron multicouche
Résumé Domaine des réseaux de neurones.
Tomographie de résistivité (TR)
Réseaux de neurones et probabilités
Les réseaux de neurones
Paradigmes des Langages de Programmation
LE DESEQUILIBRE DE LIAISON
Arbres et graphes.
Un capteur de vision CMOS pour la sécurité automobile.
Points synthèse réunion 15_12_2014 Le réseau de neurones pourrait être entrainé de manière supervisé avec une rétro-propagation adapté à la temporalité.
Présentation projet Pré - requis en électromagnétisme
Etude d’une TICE a priori non connu
Plan Analyse de l’architecture: couche L3 et L4: -> but en déduire la façon de s’interfacer avec la rétine du CEA -> comprendre comment un pseudo parallélisme.
L’estimation.
Le GRAFCET.
Le diagramme d’états-transitions
Réunion Projet ANR NEMESIS du 15 décembre 2014
GTS501 cours #8 Propagation du signal. Seuil d’excitation. Codage. Période réfractaire. Vitesse de propagation. Synapse. Intégration. Neurotransmetteurs.
Christelle Scharff IFI 2004
5ième Classe (Mercredi, 19 octobre) Prog CSI2572.
S. Canu, laboratoire PSI, INSA de Rouen
Les réseaux de neurones à réservoir en traitement d’images
Manon Maheux PSY 6992 Électrophysiologie de l’attention Professeur : Pierre Jolicoeur.
Intelligence Artificielle
Institut de sciences et technologies Département d’informatique
Réseaux de neurones à base radiale
Ce qu’est l’Amélioration continue
Synthèse d’un jeu vidéo
MOCK.
Les réseaux de neurones à réservoir en traitement d’images
Observation au Pic du Midi 8-12 Juillet 2003 Thierry Corbard, OCA Jean Arnaud, OMP Richard Muller, OMP.
Mémoires associatives Le modèle BSB/Eidos Mounir Boukadoum.
Réunion Projet ANR NEMESIS du 13 Avril 2015 Test Processeur Neuronal-Rémi Pallas.
Réunion Projet ANR NEMESIS du 30 Mars 2015
Idées apprentissage couche L3: démarche ascendante ou descendante Temps du premier spike: -conception filtre à la main -apprentissage suivant une règle.
Chloé Huetz Thèmes Organisations temporelles des décharges neuronales
Le traitement visuel des mots écrits
Plan Analyse de l’architecture: couche L3 et L4:
Partie II : Segmentation
PIF-6003 Sujets spéciaux en informatique I
C5. Communication neuronale et voies visuelles
Transcription de la présentation:

Modèle réseau de neurones TODO-> spécifier architecture -> spécifier stimulus Essayer à partir des formules d’apprentissage de faire le lien avec la formule Hebb(applicable au cas monocouche) Faire script python avec un cas simple

Modèle réseau de neurones Architecture de réseau de neurones perceptron avec «spikes»: tempotron Modèle de neurone: «integrate and fire sans fuite»: V(t)= ∑wi +V_ant avec: i le numéro de la synapse afférente avec: V_ant les contributions des spikes antérieurs Stimulus: «pattern de spikes» -pattern de latence de «spikes» -pattern paires d’événement synchrones-> les neurones couples se déclenchent simultanément

Modèle neuronal neurone N afférents Un pattern consiste en N trains de spikes (1 par afférent) Il y a p pattern par classe (+ et -, activation ou désactivation) Mesure utile système charge: α=p/N<3

Modèle réseau neurones Règle d’apprentissage: -ex: 2 classes pattern de spikes possibles «+» et «-»: sur «+» déclenchement, sur «-» rien T temps Une entrée de la couche in Fenêtre temporelle pattern spike tmax (temps du potentiel max sur fenêtre ) Mis à jour poids: Δwi=λ avec: lambda ->nombre de synapses à mettre à jour Méthode gradient: fonction de coût -Si pas de spike sur «+»: erreur=Vthresh-Vtmax -Si spike sur «-» : erreur=Vtmax-Vthresh Train Pattern Afférents (généré de Façon aléatoire) Erreur=+/-(Vthresh-Vtmax)

Méthode apprentissage On a un modèle de neurones «integrate and fire» parfait La dynamique des poids synaptique doit être et rester positive-> les poids doivent être initialisés positifs et la balance des pattern inhibiteurs et excitants doit être dosée

Questions Quel est l’intérêt de garder la contribution des spikes après déclenchement? Dans mon cas, on conserve toutes les contributions, cela implique que la fenêtre temporelle où l’on a un spike en sortie sur la neurone excitée n’est plus statique, c.a.d le temps entre deux spikes représente la fenêtre dynamique-> n’a pas l’air de changer le concept d’apprentissage (mis en œuvre fenêtrage avec un compteur modulo ) Ne faut t il pas faire un reset global du circuit pour mettre à zéro le potentiel de la neurone à chaque fenêtre temporelle Règle apprentissage: Δωi=+/- λ (lambda représente la taille maximale de la mise à jour)

Stratégie entraînement réseau On se considére dans le cas où on effectue un seuillage sur le caractère «A» bruité On définit une fenêtre temporelle (un certain nombre de cycles d’horloge) Définir seuil déclenchement en fct de la fenêtre temprelle Pour chaque couche Pour chaque neurone hidden: mis au point entraînement pour reconnaître un bout de caractère «A» Il faut donc mettre en place deux classes de pattern: -une indiquant un bout de caractère A -l’autre n’étant pas liée à A

Travail à faire Faire règle de Hebb sur un réseau de neurones 1 couche (32*32->1), on essaye de reconnaitre en bout du caractère «A»

Schéma global réseau N1,1 N1,48 1 Macro cellule rétine = 1024 Pixels image N2,1 N2, Classification de 64 Lettres (à partir de séquences de «features») Generation de séquences features Initialisation des poids par apprentissage avec Une Méthode de Hebb adaptée On spécialise La liaison Rétine->N1 4 types de séquences de spikes pour identifer les «features» (voir slide suivante) ou pas de spike quand ancun « feature» 4 types de «features»

Liaison rétine-N1 Il faut définir les caractéristiques des séquences de spike que l’on souhaite en sortie: -trait horizontal (W-E): 1 spike sur la fenêtre temporelle (Δt) -trait vertical (N-S): 2 spike sur Δt -diagonale (SW-NE): 3 spike sur Δt -diagonale (SE-NW): 4 spike sur Δt Pour chaque feature, on va devoir faire devoir faire un apprentissage pour obtenir les séquences ayant les caractéristiques voulues en sortie de N1 Les poids synaptiques des pixels non inclus dans les features seront inhibés

Apprentissage entre N1 et N2 N2,n ΔtΔt Séquence « features» Chaque neurone représente Un caractère ΔtΔt Reglage des poids synaptiques en Observant la sortie de N2 à chaque Fenêtre temporelle

Vision sur l’utilisation globale du réseau ΔtΔt ΔtΔt N1,1 N1,48 N2,1 N2,64 pattern de spikes liés à un caractère « A» pattern de spikes liés à un caractère « B» PB?: Nécessité de faire un reset global du réseau car le registre potentiel des neurones conserve Une partie de la contribution antérieure