Perceptron multicouche

Slides:



Advertisements
Présentations similaires
Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
Advertisements

Symétrie, groupes ponctuels et groupes spatiaux
« Extraction des connaissances
Introduction générale aux réseaux de neurones artificiels
Réseaux de Neurones Artificiels
LES RESEAUX DE NEURONES
THÈME APPLICATION OF THE ARTIFICIAL NEURAL NETWORK FOR MODELING THE THERMAL BEHAVIOR OF BUILDING IN HUMID REGION Léopold Mbaa, Pierre Meukamb, Alexis.
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Classification automatique de documents
Concepts avancés en mathématiques et informatique appliquées
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Un neurone élémentaire
Une théorie générale des réseaux connexionnistes
Réseaux de neurones artificiels « la rétropropagation du gradient »
GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 1 Plan 2- Domaines dapplication ClassificationRegroupement ApproximationPrédiction.
Applications du perceptron multicouche
Architecture d’application
Introduction.
Méthodes Connexionnistes Apprentissage Fusion d’informations
Réseaux de neurones.
Des révisions et des constructions.
Quizz rdf Dess IE. La RDF globale: 1.Quand il y a 2 classes seulement 2.Quand on fait un apprentissage 3.Quand les formes sont représentées par des vecteurs.
Pattern Matcher ancel_a, creuso_a, chanio_f 1. Le jeux Une plaine qui contient de lherbe, des moutons et des loups. Un système daction en tour par tour.
IFT 615 Intelligence Artificielle
IFT 616 Intelligence Artificielle
Les réseaux de neurones
Les réseaux de neurones compétitifs
Mémoires associatives
Chapitre 7 Réseau ART.
Résumé Domaine des réseaux de neurones.
GPA-779 Sleon une édtue de l'Uvinertisé de Cmabrigde, l'odrre des ltteers dnas un mtos n'a pas d'ipmrotncae, la suele coshe ipmrotnate est que la pmeirère.
GPA-779 Perceptron multicouche
Synthèse Applications des réseaux de neurones en reconnaissance de formes et en vision par ordinateur.
Résumé Domaine des réseaux de neurones.
Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE.
Formules de dérivation
Modélisation de la lecture grâce à un modèle connexionniste
Les réseaux de neurones compétitifs
Les réseaux de neurones artificiels (RNA)
STT-3220 Méthodes de prévision
Chapitre 6 Réseaux récurrents.
Les réseaux de neurones
Perceptron multicouches
Pattern Matcher ancel_a, creuso_a, chanio_f 1. Sommaire  Rappel du projet  Présentation du réseau de neurone initial  Présentation de l’implémentation.
Réseaux neuronaux et applications
Une méthode de prévision à un pas de temps Application à la prévision de la qualité de l’air S. Canu, Ph. Leray, A. Rakotomamonjy laboratoire PSI, équipe.
Christelle Scharff IFI 2004
Les réseaux de neurones à réservoir en traitement d’images
Institut de sciences et technologies Département d’informatique
Réseaux de neurones à base radiale
Une nouvelle fonction : le fonction exponentielle
Les réseaux de neurones à réservoir en traitement d’images
Intelligence artificielle
GPA667 CONCEPTION ET SIMULATION DE CIRCUITS ÉLECTRONIQUES Rev. 22/09/2013 C.I. LIN.-NUM. 1 RÉGULATEURS LINÉAIRES.
Algorithme Hybride Neuro-Flou.
GPA-779 Application des systèmes experts et des réseaux de neurones.
GEOMETRIE PLANE. NOMBRES COMPLEXES.
Idées apprentissage couche L3: démarche ascendante ou descendante Temps du premier spike: -conception filtre à la main -apprentissage suivant une règle.
Le traitement visuel des mots écrits
Le réseau de neurones artificiel
Equilibre d’un solide soumis à trois forces.
Plan Analyse de l’architecture: couche L3 et L4:
Mathématiques pour la Physique
Principes et généralités
Logarithme et Exposant. Rappel des principes Le changement de base d’un logarithme. Le changement de forme log – exp. Le changement de l’exposant d’un.
LES FIGURES DE STYLE ?.
Technologies de l’intelligence d’affaires Séance 13
INTELLIGENCE ARTIFICIELLE
Sujets Spéciaux en informatique II
INTELLIGENCE ARTIFICIELLE
Transcription de la présentation:

Perceptron multicouche Exercices Perceptron multicouche

1. Dérivée de la sigmoïde Points de départ: La dérivée d’une exponentielle est une exponentielle Dérivée d’un quotient

1.1 Sigmoïde unipolaire

1.2 Sigmoïde unipolaire à pente ajustable

1.3 Sigmoïde bipolaire

1.4 Sigmoïde bipolaire à pente ajustable

1.5 Fonction linéaire

2. Perceptron 2-2-1

3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) (ref. Fausett, prob. 6.1) 1. Net de la couche cachée Propagation avant h_in1 = 0.4 + (0.0) (0.7) + (1.0) (-0.2) = 0.2 h_in2 = 0.6 + (0.0) (-0.4) + (1.0) (0.3) = 0.9 Y -0.3 1 0.5 0.1 h1 h2 0.4 0.6 0.7 0.3 -0.2 1 -0.4 1 X1 X2

3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) Propagation avant Y 2. Out de la couche cachée -0.3 h1 = 1 / (1+ exp (- h_in1)) = 0.550 1 0.5 0.1 h2 = 1 / (1+ exp (- h_in2)) = 0.711 h1 h2 0.4 0.6 0.7 0.3 -0.2 1 -0.4 1 X1 X2

3. Net de la couche de sortie 3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) Propagation avant Y -0.3 1 0.5 0.1 h1 h2 3. Net de la couche de sortie 0.4 0.6 0.7 0.3 y_in = -0.3 + (h1) (0.5) + (h2) (0.1) = 0.046 -0.2 1 -0.4 1 X1 X2

3. Net de la couche de sortie 3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) 1. Net de la couche cachée Propagation avant h_in1 = 0.4 + (0.0) (0.7) + (1.0) (-0.2) = 0.2 h_in2 = 0.6 + (0.0) (-0.4) + (1.0) (0.3) = 0.9 Y -0.3 2. Out de la couche cachée 1 0.5 0.1 h1 = 1 / (1+ exp (- h_in1)) = 0.550 h1 h2 h2 = 1 / (1+ exp (- h_in2)) = 0.711 0.4 0.6 3. Net de la couche de sortie 0.7 0.3 y_in = -0.3 + (h1) (0.5) + (h2) (0.1) = 0.046 -0.2 1 -0.4 1 X1 X2 4. Out de la couche de sortie y = 1 / (1+ exp (- y_in)) = 0.511

3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) Rétro-propagation d d k 5. Erreur D b a Y d - y = 1 – 0.511 = 0.489 -0.3 6. dk 1 0.5 0.1 dk = (d – y) (y) (1 - y) = 0.122 h1 h2 0.4 0.6 0.7 0.3 -0.2 1 -0.4 1 X1 X2

3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) Rétro-propagation dk Y -0.2695 Dans le cas général : (-0.3) 0.5168 d j1 d j2 1 0.1217 (0.5) (0.1) h1 h2 Dérivée de f (h_inj) 0.4 0.6 0.7 0.3 -0.4 -0.2 8. d j1 1 1 d j1 = (d k) (w1) (h1) (1 - h1) = 0.015 X1 X2 9. d j2 d j2 = (d k) (w2) (h2) (1 - h2) = 0.0025

3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) Rétro-propagation dk Y D wjk -0.2695 7. D wkj 0.5168 1 0.1217 D w10 = () (dk) = 0.0305 h1 h2 D w11 = () (dk) (h1) = 0.0168 0.4 0.6 0.7 0.3 -0.4 -0.2 1 1 D w12 = () (dk) (h2) = 0.0217 X1 X2

3 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (0,1) Rétro-propagation Y d j1 d j2 0.0305 (-0.3) 0.0168 1 0.0217 D vn1 D vn2 10. D vjn h1 h2 D v10 = () (d j1) = 0.038 D v11 = () (d j1) (x1) = 0.0 0.438 0.6006 D v12 = () (d j1) (x2) = 0.038 0.7 0.3006 1 -0.4 -0.1962 1 D v20 = () (d j2) = 0.0006 D v21 = () (d j2) (x1) = 0.0 X1 X2 D v22 = () (d j2) (x2) = 0.0006

4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) et on utilise une sigmoïde bipolaire comme fonction d’activation (ref. Fausett, prob. 6.2) Seuls changent la dérivée de la fonction d’activation bipolaire et la mise à jour des poids entre l’entrée et la couche cachée. Y -0.3 1 0.5 0.1 h1 h2 0.4 0.6 0.7 0.3 -0.4 -0.2 1 1 X1 X2

4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) 1. Net de la couche cachée Propagation avant h_in1 = 0.4 + (-1.0) (0.7) + (1.0) (-0.2) = -0.5 h_in2 = 0.6 + (-1.0) (-0.4) + (1.0) (0.3) = 1.3 Y -0.3 1 0.5 0.1 h1 h2 0.4 0.6 0.7 0.3 -0.2 1 -0.4 1 X1 X2

4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) Propagation avant Y 2. Out de la couche cachée -0.3 h1 = -1 + 2 / (1+ exp (- h_in1)) = -0.245 1 0.5 0.1 h2 = -1 + 2 / (1+ exp (- h_in2)) = 0.572 h1 h2 0.4 0.6 0.7 0.3 -0.2 1 -0.4 1 X1 X2

3. Net de la couche de sortie 4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) Propagation avant Y -0.3 1 0.5 0.1 h1 h2 3. Net de la couche de sortie 0.4 0.6 0.7 0.3 y_in = -0.3 + (h1) (0.5) + (h2) (0.1) = -0.365 -0.2 1 -0.4 1 X1 X2

3. Net de la couche de sortie 4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) 1. Net de la couche cachée Propagation avant h_in1 = 0.4 + (-1.0) (0.7) + (1.0) (-0.2) = -0.5 h_in2 = 0.6 + (-1.0) (-0.4) + (1.0) (0.3) = 1.3 Y -0.3 2. Out de la couche cachée 1 0.5 0.1 h1 = -1 + 2 / (1+ exp (- h_in1)) = -0.245 h1 h2 h2 = -1 + 2 / (1+ exp (- h_in2)) = 0.572 0.4 0.6 3. Net de la couche de sortie 0.7 0.3 y_in = -0.3 + (h1) (0.5) + (h2) (0.1) = -0.365 -0.2 1 -0.4 1 X1 X2 4. Out de la couche de sortie y = -1 + 2 / (1+ exp (- y_in)) = -0.181

4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) Rétro-propagation d d k 5. Erreur D b a Y d - y = 1 – (-0.181) = 1.181 -0.3 6. dk 1 0.5 0.1 dk = (d – y) (0.5) (1 + y) (1 - y) = 0.571 h1 h2 0.4 0.6 0.7 0.3 -0.2 1 -0.4 1 X1 X2

4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) Rétro-propagation dk Y -0.2695 Dans le cas général : (-0.3) 0.5168 d j1 d j2 1 0.1217 (0.5) (0.1) h1 h2 Dérivée de f (h_inj) 0.4 0.6 0.7 0.3 -0.4 -0.2 8. d j1 1 1 d j1 = (d k) (w1) (0.5) (1 + h1) (1 - h1) = 0.134 X1 X2 9. d j2 d j2 = (d k) (w2) (0.5) (1 + h2) (1 - h2) = 0.019

4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) Rétro-propagation dk Y D wjk -0.2695 7. D wkj 0.5168 1 0.1217 D w10 = () (dk) = 0.143 h1 h2 D w11 = () (dk) (h1) = -0.035 0.4 0.6 0.7 0.3 -0.4 -0.2 1 1 D w12 = () (dk) (h2) = 0.082 X1 X2

4 : Trouver les nouveaux poids du réseau de la figure ci-dessous si on présente le vecteur d’apprentissage (-1,1) Rétro-propagation Y d j1 d j2 0.0305 (-0.3) 0.0168 1 0.0217 D vn1 D vn2 10. D vjn h1 h2 D v10 = () (d j1) = 0.0335 D v11 = () (d j1) (x1) = -0.0335 0.438 0.6006 D v12 = () (d j1) (x2) = 0.0335 0.7 0.3006 1 -0.4 -0.1962 1 D v20 = () (d j2) = 0.0048 D v21 = () (d j2) (x1) = -0.0048 X1 X2 D v22 = () (d j2) (x2) = 0.0048