La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Réseaux de neurones.

Présentations similaires


Présentation au sujet: "Réseaux de neurones."— Transcription de la présentation:

1 Réseaux de neurones

2 Sommaire Perceptron Mémoires associatives Réseau à couches cachées
Rétro-propagation de l’erreur

3 Perceptron Considéré comme 1er réseau de neurones
Basé sur la biologie humaine Créé Par Rosenblatt Entre 1957 et 1961 But : associer des configurations d’entrée à des réponses

4 Perceptron Constitution Couche d’entrée / Rétine Couche de sortie 1/0
{0/1} Valeurs possibles en entrée : 0 ou 1 En sortie : 0/1 Connexions/Synapses

5 Perceptron Constitution Couche d’entrée / Rétine Couche de sortie 1/0
{0/1} Valeurs possibles en entrée : 0 ou 1 En sortie : 0/1 Connexions/Synapses

6 Perceptron Constitution x0 x1 x2 x3 aj= ∑i xiwij w0j w1j w2j w3j
1/0 {0/1} x0 x1 x2 x3 aj= ∑i xiwij w0j w1j w2j w3j oj=f(aj)

7 Perceptron Constitution aj : activation de la jème cellule de sortie
x0 x1 x2 x3 aj= ∑i xiwij w0j w1j w2j w3j xi : valeur de sortie de la ième cellule de la rétine oj=f(aj) oj : régle de décision oj = 0 pour aj <= θj, 1 pour aj > θj wi,j : intensité connexion entre ième cellule d’entrée et jème cellule de sortie

8 Perceptron Apprentissage Supervisé
On donne l’entrée et la sortie attendue Si sortie d’une cellule est bonne => on ne fait rien Sinon, si elle est activée : on diminue la valeur de ses connexions si elle est désactivée : on augmente la valeur de ses connexions Jusqu’au moment où les réponses sont toutes correctes

9 Perceptron Apprentissage
Comment diminuer ou augmenter les connexions ? Règle d’apprentissage de Widrow-Hoff wi,j(t+1) = wi,j(t)+n(tj-oj)xi = wi,j(t)+∆wi,j Facteur d’apprentissage Réponse théorique de la jème cellule de sortie

10 Perceptron Problèmes Pourquoi ? Conséquence
Difficile de trouver de bons paramètres Impossible de modéliser le XOR Pourquoi ? XOR est non linéairement séparable Conséquence Le perceptron est alors mal vu et est abandonné 1,0 0,1 0,0 1,1

11 Mémoires associatives
Vers 1970 Deux types Mémoires hétéro-associatives Mémoires auto-associatives

12 Mémoires hétéro-associatives
Généralisation du perceptron L’activation de sortie est continue et non plus 0 ou 1 Même constitution mais oj=γaj= γ(∑i xiwij)

13 Mémoires auto-associatives
Constitution Réseau de neurones Input

14 Mémoires auto-associatives
Deux types Linéaires Recherche de réponse par combinaison linéaire des stimulis stockés Non linéaires Réseaux de Hopfield Réponses binaires : fonction sign dans {-1 , 1} Mise à jour asynchrone

15 Mémoires auto-associatives
But Retrouver une information à partir d’une partie de celle-ci Exemple Retrouver un visage connu à partir d’un nez et deux yeux

16 Sommaire Perceptron Mémoires associatives Réseau à couches cachées
Rétro-propagation de l’erreur

17 Réseaux à couches cachées
Constitution Matrices de connexions W Z x INPUT I neurones h HIDDEN L neurones o OUTPUT J neurones

18 Réseaux à couches cachées
Constitution Zj0 Zj1 Zj2 x0 x1 x2 x3 aj= ∑i xiwij w0j w1j w2j w3j oj=f(aj)

19 Rétro-propagation de l’erreur
Technique d’apprentissage Idée : On teste une entrée On récupère la réponse On la compare à la réponse théorique On propage l’erreur entre les deux réponses, de la sortie vers l’entrée du réseau

20 Rétro-propagation de l’erreur
Choix de f (fonction de transfert): La plus populaire : la fonction logistique Sa dérivée

21 Rétro-propagation de l’erreur
Algorithme 1. On place une entrée

22 Rétro-propagation de l’erreur
Algorithme 1. On place une entrée h=f(W*x) 2. Calcul des réponses pour h

23 Rétro-propagation de l’erreur
Algorithme o=f(Z*h) 1. On place une entrée h=f(W*x) 2. Calcul des réponses pour h 3. Calcul des réponses pour o

24 Rétro-propagation de l’erreur
Algorithme o=f(Z*h) sortie=f’(Zh)*(t - o) 1. On place une entrée 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie

25 Rétro-propagation de l’erreur
Algorithme sortie=f’(Zh)*(t - o) 1. On place une entrée 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur Z(t+1)=Z(t)+n sortie h = Z(t) + ∆(t)Z

26 Rétro-propagation de l’erreur
Algorithme 1. On place une entrée cachée=f’(Wx)*(Z sortie) 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur 6. Calcul du signal d’erreur de la couche cachée Z(t+1)=Z(t)+n sortie h = Z(t) + ∆(t)Z

27 Rétro-propagation de l’erreur
Algorithme 1. On place une entrée cachée=f’(Wx)*(Z sortie) 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur 6. Calcul du signal d’erreur de la couche cachée 7. On ajuste W avec le signal d’erreur W(t+1)=W(t)+n cachée x = W(t) + ∆(t)W

28 Rétro-propagation de l’erreur
Algorithme 1. On place une entrée 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur 6. Calcul du signal d’erreur de la couche cachée 7. On ajuste W avec le signal d’erreur W(t+1)=W(t)+n cachée x = W(t) + ∆(t)W

29 Rétro-propagation de l’erreur
Algorithme 1. On place une entrée 2. Calcul des réponses pour h 3. Calcul des réponses pour o 4. Calcul du signal d’erreur de sortie 5. On ajuste Z avec le signal d’erreur 6. Calcul du signal d’erreur de la couche cachée 7. On ajuste W avec le signal d’erreur

30 Domaine des réseaux de neurones
Aide pour l’homme Classification d’objets Apprentissage supervisé Recherche d’une fonction complexe


Télécharger ppt "Réseaux de neurones."

Présentations similaires


Annonces Google