Télécharger la présentation
1
Réseaux de neurones
2
Sommaire Perceptron Mémoires associatives Réseau à couches cachées
Rétro-propagation de l’erreur
3
Perceptron Considéré comme 1er réseau de neurones
Basé sur la biologie humaine Créé Par Rosenblatt Entre 1957 et 1961 But : associer des configurations d’entrée à des réponses
4
Perceptron Constitution Couche d’entrée / Rétine Couche de sortie 1/0
∑ {0/1} Valeurs possibles en entrée : 0 ou 1 En sortie : 0/1 Connexions/Synapses
5
Perceptron Constitution Couche d’entrée / Rétine Couche de sortie 1/0
∑ {0/1} Valeurs possibles en entrée : 0 ou 1 En sortie : 0/1 Connexions/Synapses
6
Perceptron Constitution x0 x1 x2 x3 aj= ∑i xiwij w0j w1j w2j w3j
1/0 ∑ {0/1} x0 x1 x2 x3 aj= ∑i xiwij w0j w1j w2j w3j oj=f(aj)
7
Perceptron Constitution aj : activation de la jème cellule de sortie
x0 x1 x2 x3 aj= ∑i xiwij w0j w1j w2j w3j xi : valeur de sortie de la ième cellule de la rétine oj=f(aj) oj : régle de décision oj = 0 pour aj <= θj, 1 pour aj > θj wi,j : intensité connexion entre ième cellule d’entrée et jème cellule de sortie
8
Perceptron Apprentissage Supervisé
On donne l’entrée et la sortie attendue Si sortie d’une cellule est bonne => on ne fait rien Sinon, si elle est activée : on diminue la valeur de ses connexions si elle est désactivée : on augmente la valeur de ses connexions Jusqu’au moment où les réponses sont toutes correctes
9
Perceptron Apprentissage
Comment diminuer ou augmenter les connexions ? Règle d’apprentissage de Widrow-Hoff wi,j(t+1) = wi,j(t)+n(tj-oj)xi = wi,j(t)+∆wi,j Facteur d’apprentissage Réponse théorique de la jème cellule de sortie
10
Perceptron Problèmes Pourquoi ? Conséquence
Difficile de trouver de bons paramètres Impossible de modéliser le XOR Pourquoi ? XOR est non linéairement séparable Conséquence Le perceptron est alors mal vu et est abandonné 1,0 0,1 0,0 1,1
11
Mémoires associatives
Vers 1970 Deux types Mémoires hétéro-associatives Mémoires auto-associatives
12
Mémoires hétéro-associatives
Généralisation du perceptron L’activation de sortie est continue et non plus 0 ou 1 Même constitution mais oj=γaj= γ(∑i xiwij)
13
Mémoires auto-associatives
Constitution Réseau de neurones Input
14
Mémoires auto-associatives
Deux types Linéaires Recherche de réponse par combinaison linéaire des stimulis stockés Non linéaires Réseaux de Hopfield Réponses binaires : fonction sign dans {-1 , 1} Mise à jour asynchrone
15
Mémoires auto-associatives
But Retrouver une information à partir d’une partie de celle-ci Exemple Retrouver un visage connu à partir d’un nez et deux yeux
16
Sommaire Perceptron Mémoires associatives Réseau à couches cachées
Rétro-propagation de l’erreur
17
Réseaux à couches cachées
Constitution Matrices de connexions W Z x INPUT I neurones h HIDDEN L neurones o OUTPUT J neurones
18
Réseaux à couches cachées
Constitution Zj0 Zj1 Zj2 x0 x1 x2 x3 aj= ∑i xiwij w0j w1j w2j w3j oj=f(aj)
19
Rétro-propagation de l’erreur
Technique d’apprentissage Idée : On teste une entrée On récupère la réponse On la compare à la réponse théorique On propage l’erreur entre les deux réponses, de la sortie vers l’entrée du réseau
20
Rétro-propagation de l’erreur
Choix de f (fonction de transfert): La plus populaire : la fonction logistique Sa dérivée
21
Rétro-propagation de l’erreur
Algorithme 1. On place une entrée
22
Rétro-propagation de l’erreur
Algorithme 1. On place une entrée h=f(W*x) 2. Calcul des réponses pour h
23
Rétro-propagation de l’erreur
Algorithme o=f(Z*h) 1. On place une entrée h=f(W*x) 2. Calcul des réponses pour h 3. Calcul des réponses pour o
24
Rétro-propagation de l’erreur
Algorithme o=f(Z*h) sortie=f’(Zh)*(t - o) 1. On place une entrée 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie
25
Rétro-propagation de l’erreur
Algorithme sortie=f’(Zh)*(t - o) 1. On place une entrée 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur Z(t+1)=Z(t)+n sortie h = Z(t) + ∆(t)Z
26
Rétro-propagation de l’erreur
Algorithme 1. On place une entrée cachée=f’(Wx)*(Z sortie) 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur 6. Calcul du signal d’erreur de la couche cachée Z(t+1)=Z(t)+n sortie h = Z(t) + ∆(t)Z
27
Rétro-propagation de l’erreur
Algorithme 1. On place une entrée cachée=f’(Wx)*(Z sortie) 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur 6. Calcul du signal d’erreur de la couche cachée 7. On ajuste W avec le signal d’erreur W(t+1)=W(t)+n cachée x = W(t) + ∆(t)W
28
Rétro-propagation de l’erreur
Algorithme 1. On place une entrée 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur 6. Calcul du signal d’erreur de la couche cachée 7. On ajuste W avec le signal d’erreur W(t+1)=W(t)+n cachée x = W(t) + ∆(t)W
29
Rétro-propagation de l’erreur
Algorithme 1. On place une entrée 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur 6. Calcul du signal d’erreur de la couche cachée 7. On ajuste W avec le signal d’erreur
30
Domaine des réseaux de neurones
Aide pour l’homme Classification d’objets Apprentissage supervisé Recherche d’une fonction complexe
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.