Introduction.

Slides:



Advertisements
Présentations similaires
Introduction.
Advertisements

Introduction.
PERFORMANCE One important issue in networking is the performance of the network—how good is it? We discuss quality of service, an overall measurement.
Le système nerveux.
An Introduction To Two – Port Networks The University of Tennessee Electrical and Computer Engineering Knoxville, TN wlg.
IP Multicast Text available on
Architecture de Réseaux Travaux Pratiques
Starter Donne-moi une réponse a cette question!
Leçon 6: Une Invitation Unité 7.
Theme Three Speaking Questions
Notes for teacher. You can just use slides 2-5 if you wish. If you want to do the practical activity (slides 6-8) you will need to: print off Slide 6.
Unité 1 : Coucou ! L’article indéfini dans la salle de classe.
AP Examen Pratique commentaires
Theme Two Speaking Questions
L’exposé 3- 4 mins long - 4 minutes is a maximum, not a target.
Architecture de Réseaux Travaux Pratiques
Technologies de l’intelligence d’affaires Séance 13
Les pronoms COI C’était l’idée du chat. Je te le jure.
Mon enfance Quand tu étais petit, tu étais comment?
IDL_IDL bridge The IDL_IDLBridge object class allows an IDL session to create and control other IDL sessions, each of which runs as a separate process.
l y a which we have already learned means “there is/are l y a which we have already learned means “there is/are.” When we put a measure of time.
Technologies de l’intelligence d’affaires Séance 14
Architecture de Réseaux Travaux Pratiques
Why is it important to plan ahead for the future?
JC2 - LE PASSE COMPOSE with ÊTRE
Reflective verbs or Pronominal verbs
Quantum Computer A New Era of Future Computing Ahmed WAFDI ??????
- User case - 3D curve length optimization
Statistics & Econometrics Statistics & Econometrics Statistics & Econometrics Statistics & Econometrics Statistics & Econometrics Statistics & Econometrics.
Theme Two Speaking Questions
Neurobiologie des addictions
The Passé Composé Tense
Machines à états liquides
La nature du message nerveux
F RIENDS AND FRIENDSHIP Project by: POPA BIANCA IONELA.
Phase-Locked Loop Design S emiconducto r S imulation L aboratory Phase-locked loops: Building blocks in receivers and other communication electronics Main.
P&ID SYMBOLS. P&IDs Piping and Instrumentation Diagrams or simply P&IDs are the “schematics” used in the field of instrumentation and control (Automation)
Tools & Bibliography November 2008
The Great debate Day 2: In which we intone, persuade (again) and we begin developing vocabulary for debate and argumentation.
Leadership Styles Mrs. Keith Main Types of Leadership Styles 1.The Autocratic or Authoritarian Leader 2.The Democratic or Participative Leader.
G. Peter Zhang Neurocomputing 50 (2003) 159–175 link Time series forecasting using a hybrid ARIMA and neural network model Presented by Trent Goughnour.
Lect12EEE 2021 Differential Equation Solutions of Transient Circuits Dr. Holbert March 3, 2008.
Introduction to Computational Journalism: Thinking Computationally JOUR479V/779V – Computational Journalism University of Maryland, College Park Nick Diakopoulos,
Français - couleurs - pays - drapeaux
The Passé Composé In the previous lesson we looked at the formation of the passé composé (perfect tense) with Avoir verbs. In this lesson we will further.
Le soir Objectifs: Talking about what you do in the evening
L'amour ne demande pas pourquoi Défilement automatique
Qu’est-ce que tu as dans ta trousse?
Pablo Picasso P____ P_______
Quelle est la date aujourd’hui?
L’objectif: to know the words for school subjects in French.
Qu’est-ce que tu as dans ta trousse?
Révision – Phrases Importantes
Quelle est la date aujourd’hui?
Quelle est la date aujourd’hui?
sortir avec mes copains faire les magasins jouer à des vidéo
Question formation In English, you can change a statement into a question by adding a helping verb (auxiliary): does he sing? do we sing? did they sing.
Manometer lower pressure higher pressure P1P1 PaPa height 750 mm Hg 130 mm higher pressure 880 mm Hg P a = h = +- lower pressure 620 mm Hg.
What’s the weather like?
Révision! This lesson is about consolidating all the language learnt so far about music, likes, dislikes and reasons and bringing it together so that pupils.
Le Passé Composé (Perfect Tense)
Les Mots Intérrogatifs
University : Ammar Telidji Laghouat Faculty : Technology Department : Electronics 3rd year Telecommunications Professor : S.Benghouini Student: Tadj Souad.
Les opinions Les opinions = Opinions. In this lesson pupils will learn to understand and give their own opinions about singular items.
Le Climat : Un dialogue entre Statistique et Dynamique
Lundi 11 février Français II
Revision sheet: Passé composé
Double Vision the art of seeing more than one thing
Transcription de la présentation:

Introduction

Réseau de neurones artificiel Abstraction du système nerveux central animal Traitement parallèle de l’information par opposition à un automate sériel comme un ordinateur Capacité d’apprentissage et d’adaptation Traitement simple et identique par les neurones individuels, mais comportement global emergent! Application à la solution de problèmes complexes Problèmes de classification difficiles Modélisation de données fragmentaire ou bruitées Étude de processus cognitifs

Réseau de neurones biologique Quand un pigeon devient expert en art! (Watanabe et al. 1995) Experience : Pigeon dans une boîte de Skinner Exposition aux tableaux de deux artistes (Chagall / Van Gogh) Récompense pour coup de bec en voyant un tableau de l’un des artistes (e.g. Van Gogh)

Précision de 85% pour les tableaux non vus auparavant! Les pigeons utilisés ont pu distinguer Van Gogh de Chagall avec 95% de précision pour les tableaux d’entraînement Précision de 85% pour les tableaux non vus auparavant! Mémoire oui, mais avec… Identification de traits essentiels et/ou généralisation Absence apparente de processus réfléchi Force majeure des réseaux de neurones! (artificiels et biologiques)

Niveaux de traitement dans le système nerveux central humain Molécules 0.1mm Synapses 1mm Neurones 100mm Réseaux locaux Régions 1cm Sous-Systèmes 10cm Sys. Nerveux Central 1m

Circuits locaux dans le cortex visuel LGN inputs Cell types Différents type de neurones L’idée est de les imiter dans l’espoir de bénéficier de leurs propriétés Architecture en couches Modèle de Hubel and Wiesel pour le système visuel primaire du chat

Neurone biologique Sortie impulsive : 1-bref – Le neurone répond 0 – Le neurone ne répond pas (Sans nécessairement être inactif)

Synapse biologique Agent principal du comportement neuronal Connexion typique le long d’un arbre dendritique Force de connexion variable + ou - Plasticité à court terme Utilisation de mécanismes électrochimiques Plasticité corrélationnelle?

Types de synapses Électrique (rare) 3.5 nm pré-post distance Continuité cytoplasmique (e.g. muscle cardiaque, capteurs sensoriels) Courant ionique Propagation instantanée Transmission bidirectionnelle Chimique 20-40 nm pré-post distance Discontinuité cytoplasmique Vésicules présynoptiques et récepteurs postsynaptiques Transmetteur chimique Délai synaptique .3 ms Transmission unidirectionnelle

Synapse dendritique

Neurotransmetteurs Plusieurs types Amino Acides : Glutamate, GABA Amines biogéniques : Dopamine, Histamine Neuropeptides … LHRH, Proctolin Endorphines, acetylcholine, etc. NMDA, GABAA sont fréquents au niveau des récepteurs Certains sont excitateurs, d’autres inhibiteurs et d’autres modulateurs

Synapse excitatrice vs. inhibitrice

Neurotransmetteurs Neurotransmetteur Type de récepteur Ions impliqués Transmitter Channel-typ Ion-current Action Neurotransmetteur Type de récepteur Ions impliqués Effet Acétylcholine Nicotin receptor Na+ et K+ excitateur Muscarin recept. - métabotropique, libération de Ca2+ Glutamate AMPA/Kainate NMDA Na+, K+, Ca2+ dépend de la tension, bloqué au repos GABA GABAA-Receptor inhibiteur Glycine Cl-

De l’entité biologique au modèle Neurone -> Nœud Synapse -> Arc pondéré

Modélisation simplifiée x0 = +1 w0 Biais x1 État interne Fonction d’activation w1 Entrée Sortie y= () x2 w2 Poids synaptiques Sommateur xm wm Hypothèses : Synapses synchrones Pas de pertes Sortie non impulsive Simplification des séquences d’impulsions par codage de fréquence (rate coding) L’information de phase est perdue!

Fréquence des impulsions biologiques 2018/5/17 Fréquence des impulsions biologiques This comes from the Hopfield paper that was given out, and is the primary reason that I requested the paper to be given to the class. I like this picture at is shows how the sigmoid is created by adding levels of realism from the original linear function. The graph is a function of the input current to the neuron firing rate. The simplest model says that the more current applied, the faster the neuron fires. When you add in that neurons become saturated and can only fire so fast because of the need to reset the biology, there is a tapering off of at the top of the input current axis. When you add in leakage, there is a deadening at the beginning of the curve that requires a certain current threshold before the neuron will start to fire. But this cutoff is softened when noise is added to the simulation. All of these different curves can be found in neural networks which have different purposes and designs. The point to take away is that different curves work well for different levels of abstraction. La valeur moyenne dépend de plusieurs facteurs Pertes (leakage), saturation, sources de bruit Généralement modelé avec une fonction sigmoïde

Fonctions d’activation communes 2018/5/17 Fonctions d’activation communes Plusieurs fonctions existent L’efficacité dépend de l’application Here are some common activation rules that you have probably seen before. Each is used in different contexts. Threshold are the oldest, then there was linear. All of these are still used, and scaled based on individual needs.

Topologies de base Réseau multicouche Réseau récurrent Unités de sortie Unités cachées Unités d’entrée Unités cachées Unités d’entrée/sortie En général, les réseaux récurrents utilisent des règles d’apprentissage d’inspiration biologique et les réseaux multicouches des règles tirées de l’ingénierie

Taxonomie +BSB, BAM, etc.

Savoir du RNA Réside dans la présence et force de connexions inter-neuronales (synapses) Mais : Différents types de neurones Différents types de topologies de réseaux  Comment trouver les bons poids?

Plasticité synaptique biologique Mène à un apprentissage par corrélation temporelle de sorties

Spike-timing Dependent Synaptic Plasticity (STDP) La précédence des impulsions pré et post synaptiques influe sur la plasticité synaptique. Ajoute la causalité temporelle Populaire dans les réseaux de neurones à impulsions/décharges (spiking NN) Les réseaux à codage de fréquence gèrent la plasticité synaptique différemment : Corrélation de taux (règle de Hebb) Minimisation d’erreur d’apprentissage Bi and Poo J. Neurosci. 18, 10464 (1998)

Apprentissage machine “Field of study that gives computers the ability to learn without being explicitly programmed” Arthur Samuel, 1959 Une définition plus abstraite : “ A computer program is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with E.” Tom Mitchell, 1997 Et une orientée prédiction : Field of study where computers develop from available data the ability to make predictions about any element in its enclosing set 5

Types d’apprentissage machine Peuvent être divisés en trois classes dependant des proprétés des données d’entraînement : Apprentissage supervisé: Le résultat est connu pour chaque exemple d’apprentissage ; i.e., les paires (x,y) sont connues au depart Appprentissage non supervised : Les exemple d’apprentissage sont étiquetés en cherchant les motifs/similarités; Seuls les x sont connus au départ Apprentissage par reenforcement: Forme intermédiaire où un étiquetage retardé et creux des exemples d’apprentissage est effectué en maximisant des attentes réalisées (“rewards”) par rapport aux différentes alternatives Des variantes existent, par ex. apprentissage semi-supervisé, apprentissage extrême, états liquids, apprentissage profond

Mais pourquoi aller si loin ? Un modèle simple de mémoire associative : On crée un ensemble de vecteurs orthogonaux { } à partir des N vecteurs à mémoriser On considère l’ensemble { } des N vecteur-réponses désirés   On calcule la matrice La fonction de rappel d’un stimulus quelconque est alors Ça fonctionne, non? Mais que se passe-t-il lorsque les entrées sont corrélées, bruitées ou non linéairement séparables ?