Machines à états liquides

Slides:



Advertisements
Présentations similaires
Réseaux neuronaux - Architectures et algorithmes
Advertisements

LES RESEAUX DE NEURONES
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Introduction.
Les réseaux de neurones
Christelle Scharff IFI 2004
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Les réseaux de neurones à réservoir en traitement d’images
Génération de matrices matrix() Ce sont des vecteurs qui possèdent un argument supplémentaire, qui est lui-même un vecteur de longueur 2, sa dimension,
1 Observer le paramétrage d’un réseau. 2 Dans notre réseau téléphonique habituel, les postes, reliés à un auto-commutateur... …peuvent dialoguer, car.
Cour Régulation AII3 Chapitre I: Modélisation des systèmes automatiques Abdelkhalek.S 1.
Introduction Bases de Données NoSQL Principe de base Avantages/Inconvénients L’évolution du Web 2.0 et actuellement Web 3.0, a montrée l’insuffisance des.
Les rprésentation des signaux dans le cadre décisionnel de Bayes Jorge F. Silva Shrikanth S. Narayanan.
1 METHODE DEMPSTER-SHAFER Présenté: Guy Richard SAMEDY MASTER M2 RECHERCHE INFORMATIQUE UE : Cognition et Connaissance INSA de Lyon ( )
Système d’annotation et de détection de modèle de véhicule Université de Sfax *** Institut Supérieur d’Informatique et de Multimédia de Sfax Réalisé par.
L’ordinateur et ses composants
Rappels et présentation du réseau local
Analyse, Classification,Indexation des Données ACID
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
Les réseaux filaires.
Pas de variable globale
Collecte de données avec les Smartphones
Techniques de décomposition
Loi Normale (Laplace-Gauss)
Préparer par : Intissare et kaoutare
Rapport sable /gravier (S/G)
Introduction.
Routage S 3 - Questionnaire N°1
Les bases de données et le modèle relationnel
Le comptage d’énergie dans les unités d’habitation collectives
Technologies de l’intelligence d’affaires Séance 13
Routage S 5 - Questionnaire N°1
Routage S 3 - Questionnaire N°1
Questions 1- Qu'est ce qu'un réseau informatique ?
– La communication : notions de base. – INTRODUCTION : QU’EST-CE QUE LA COMMUNICATION ? I/ LES DIFFÉRENTS TYPES DE COMMUNICATION II/ LES COMPOSANTES DE.
Technologies de l’intelligence d’affaires Séance 12
3.3 loi discrète 1 cours 14.
INTELLIGENCE ARTIFICIELLE
Sujets Spéciaux en informatique II
la structure de l’entreprise: Définition : La structure organisationnelle d’une entreprise définie le mode d’organisation entre les différentes unités.
1 RECURSIVITE PRESENTATION Ch. PAUL ALGORITHMIQUE Présentation de la récursivité.
– La communication notions de base. – INTRODUCTION : QU’EST-CE QUE LA COMMUNICATION ? I/ LES DIFFÉRENTS TYPES DE COMMUNICATION II/ LES COMPOSANTES DE.
ACP Analyse en Composantes Principales
Pierre Dumouchel 20 juillet 2009
G. Peter Zhang Neurocomputing 50 (2003) 159–175 link Time series forecasting using a hybrid ARIMA and neural network model Presented by Trent Goughnour.
Liaison série.  Dans une liaison série, les données sont envoyées successivement, bit par bit. Il suffit de deux fils (un fil de signal et un fil de.
Les méthodes non paramétriques
CHAPTER 2: Apprentissage supervisé
CHAPTER 11: Perceptron Multicouches
Arbres de décision.
CHAPITRE 5: Méthodes multivariables
CHAPTER 10: Discrimination Linéaire
Position, dispersion, forme
Sujets Spéciaux en informatique II
INTELLIGENCE ARTIFICIELLE
INTELLIGENCE ARTIFICIELLE
INTELLIGENCE ARTIFICIELLE
Package JADE : Analyse en composantes principales (ACI)
Tableau de bord d’un système de recommandation
Machine synchrone 1.Champ magnétique tournant Une aiguille aimantée est une source de champ magnétique. Plaçons au-dessus de cette aiguille un aimant en.
Le Climat : Un dialogue entre Statistique et Dynamique
Sommaire Les réseaux de capteurs sans fils Les réseaux de capteurs sans fils Communication dans Contiki Communication dans Contiki Réalisation Réalisation.
Dridi Lobna 1 Couche Réseau II Réseau : Gestion de l’accès.
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES.
LES RESEAUX. Besoin de communication LES RESEAUX Pour communiquer via un réseau informatique Support de transmission Carte réseau Éléments de réseau.
Cube OLAP.
La programmation dynamique
Transcription de la présentation:

Machines à états liquides Adapté de plusieurs sources sur Internet dont David Norton, Dan Ventura, Alex Klibisz, Benjamin Schrauwen, David Verstraeten, Jan Van Campenhout et Brad Aimone.

Le cerveau apprend, l’apprentissage machine entraîne… Monde extérieur Données d’entraînement Apprentissage machine Brad Aimone SNL 2015 NICE

Qu’a le cerveau de spécial ? Plusieurs choses… Neurones à impulsions Représentations et processus de haut niveau Architecture hiérarchique et récurrente Représentation de l’information creuse (sparse) et répartie … Adaptation en ligne et continue Brad Aimone SNL 2015 NICE

Le cerveau vu par les neurosciences et l’apprentissage machine Artificial Neural Nets 1960s-70s 2000s 1940s-50s Modern Machine Learning Deep Learning Random Forest Decision Trees Support Vector Machines Convolutional Neural Nets Reservoir Computing Reinforcement Learning Backpropagation Hebb McCulloch-Pitts Rosenblatt Hopfield Hinton Dan & Poo; Markram (STDP) 1980s-90s Little crosses this line a priori Population coding, synapto- and neurogenesis In vivo representations Hubel Wiesel / O’Keefe SVM - Brad Aimone SNL 2015 NICE

Central pattern generator models Modèles de neurones Abstract Binary neurons Discrete time Perceptron NNs Hopfield network BackProp NNs Kohonen map Real number neurons Discrete time Cont. Time Recur. NN Echo-state network Central pattern generator models Real number neurons Continuous time Spiking neurons (integrate and fire) Liquid-state machine Computational neurosc. models Squid neuron (H.&H.) Biophysical models Realistic

Réseaux de neurones à réservoir Reposent sur un réseau de neurones récurrent (RNR) servant de mémoire et un apprenant sans mémoire Demandent moins de paramètres qu’une architecture neuronale classique (Maass 97) et possèdent des corrélats biologiques Deux types présentement, ESN et LSM : Réseaux à états échoïques (ESN) : utilisent des neurones à codage de fréquence Machines à états liquides (LSM) : utilisent des neurones à impulsions (Maass, 2002)

Machine à états liquides Un réseau récurrent de neurones à impulsions sert de réservoir (liquide) Le nom vient de l’analogie avec un pierre lancée à la surface d’un liquide, où les vagues créées dépendent de la nature du lancer

Machine à états liquides Les entrées sont converties en trains d’impulsions Les trains d’impulsions sont réverbérées dans le liquid de manière non linéaire Les instantanés du liquide donnent ses paramètres, réunis en vecteurs d’états Un fonction de lecture (readout) décode chaque vecteur

Propriétés des LSMs Imitent des structures cérébrales (cervelet) Le réservoir est configuré de manière aléatoire et il n’y a pas d’entraînement en principe à ce niveau En pratique, des liquides différents mènent à des performances différentes; il faut trouver le “bon” Quand un réservoir acceptable est trouvé, il s’applique à différents types de problèmes Le réservoir à pour but/effet de séparer les entrées du LSM en classes qui sont représentées par les vecteur d’états Le lecteur identifies les entrées après entraînement avec les paires (classe, état)

Problèmes pouvant être résolus Identification de cadence (frequency recognition) 4 neurones d’entrée 5 classes Identifie différentes combinaisons de neurones d’entrée lents et rapides Reconnaissance des formes 8 neurones d’entrée 4, 8, et12 classes Identifie différents patrons d’impulsions basé sur des gabarits

Création du réservoir Trois étapes : On spécifie une structure de XxYxZ neurones (colonne corticale) On attribue aléatoirement les connections entres neurones et leurs forces On ajuste l’architecture du liquide (typiquement l’étape 2) jusqu'à ce que le liquide puisse effectivement “séparer” On peut voir l’étape 3 précédente comme une tentative d’entraînement par propriété de séparation (au lieu de minimisation d’erreur)

Entraînement typique Créer des matrices de poids aléatoires Exciter le réservoir avec les entrées et enregistrer les vecteurs d’états obtenus Entraîner le lecteur de sortie pour minimiser (Aw-b)2 space A B w time

Influence des paramètres dynamic regime chaos error reservoir size error timescale error Pas important a priori pour le liquide: Topologie du liquide Qui est connecté Distribution des poids

Propriété de séparation Distance inter-classes : Variance intra-classe :

Propriété de séparation Centre de masse d’une classe m : Variance moyenne d’une classe m :

Propriéte de séparation

Propriété de séparation Correlation coefficient is 0.6876