La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 1 Plan 2- Domaines dapplication ClassificationRegroupement ApproximationPrédiction.

Présentations similaires


Présentation au sujet: "GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 1 Plan 2- Domaines dapplication ClassificationRegroupement ApproximationPrédiction."— Transcription de la présentation:

1 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 1 Plan 2- Domaines dapplication ClassificationRegroupement ApproximationPrédiction Mémoire associativeOptimisation Commande robotique 3- Perceptron Historique Reconnaissance de formes Neurone formel de McCulloch & Pitts Perceptron de Rosenblatt Adaline et madaline de Widrow-Hoff

2 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 2 Découverte S. Haykin, Neural Networks: A Comprehensive Foundation, Prentice Hall, 2 e édition, 1998 (1 ère édition: IEEE Press). Approche ingénierie Classique dans le domaine Meilleure introduction aux réseaux de neurones artificiels, selon un sondage.

3 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 3 Découverte Hervé ABDI, Les réseaux de neurones, Presses Universitaires de Grenoble, 1994. Découvert à Paris, juillet 2002, 24 Approche pédagogique Nombreux exemples numériques Perceptron : Rosenblatt et multicouche, MA, Hopfield Appendice: calcul matriciel Appendice: programmes MATLAB

4 Chapitre 2 Domaines dapplication

5 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 5 Principaux domaines dapplication 1. Classification 2. Regroupement 3. Approximation 4. Prédiction 5. Optimisation de parcours 6. Mémoire associative 7. Commande

6 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 6 2.1 Classification Montrer par lexemple à reconnaître les catégories de formes présentées à lentrée du réseau Perceptron de Rosenblatt Réseau à rétro-propagation du gradient derreur (perceptron multicouche)

7 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 7 Reconnaissance de chiffres

8 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 8 Sonar Travaux de Sejnowski & Gorman, 1988 Pré-traitement: TFD Apprentissage: formes spectrales

9 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 9 2.2 Approximation Transformer une forme dentrée en une forme de sortie selon une fonction de transformation apprise par le réseau Réseau à rétro-propagation du gradient derreurs (perceptron multicouche) Adaline-Madaline

10 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 10 Approximation de fonction transcendentale n=10; K=21 31 param. à entraîner : –20 poids –11 polar.

11 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 11 Réseau Net Talk Sejnowski & Rosenberg 1986 But: Apprendre à prononcer un texte écrit avec laide dun dictionnaire phonétique

12 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 12

13 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 13 Approximation complexe: conduite dun véhicule motorisé 1217 unités à gaucheà droite route + claire ou + foncée = 256 = 960 (dans le bleu)

14 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 14 Approximation complexe: conduite de véhicule motorisé Projet développé à Carnegie-Mellon Apprentissage: 1200 images présentées 40 fois chacune. Les images représentent une grande diversité de courbes, dintensité et de distortion. Lapprentissage dure ~30 min. Résultats: Le meilleur à … ~5 km/hrs dans une route boisée.

15 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 15 2.3 Prédiction Prédire une valeur de sortie à partir dune forme dentrée Indice Dow-Jones Couche cachée: 20 14 indicateurs, dont: DJ précédent Or Bons du trésor

16 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 16 2.4 Compression Encodeur 8-3-8 transmis Extraction de primitives Classification

17 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 17 2.5 Mémorisation associative Mémoriser plusieurs formes. En rappeler 1 à partir dune forme partielle ou bruitée. Réseau de Hopfield BAM, ABAM

18 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 18 Reconstruction dimages

19 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 19 2.6 Optimisation Trouver une bonne solution (pas nécessairement LA solution optimale) qui minimise une fonction de coût. Réseau récurrent de Hopfield Machine de Boltzmann

20 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 20 Voyageur de commerce Un vendeur doit établir un itinéraire de visite de 5 villes. Il doit partir de Boston et revenir à Boston à la fin de son itinéraire. o Chaque ville est visitée une et une seule fois o Litinéraire doit être le plus court possible afin de minimiser les frais dessence La principale difficulté rencontrée avec ce type de problème est lexplosion combinatoire des solutions à évaluer.

21 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 21

22 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 22 Réseau de Hopfield Lignes villes Colonnes séquence de visite Poids contraintes du problème à résoudre –1 ville visitée 1 seule fois –1 étape 1 seule ville –Distance entre les villes Activation du réseau minimisation du coût

23 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 23 2.7 Regroupement Apprendre sans supervision à classer les données soumises au réseau. Les classes sont regroupées selon un critère de proximité des formes. 2 formes «semblables» vont activer une seule et même classe. Les réseaux de compétition forment la base : Gagnant emporte tout ART Kohonen, LVQ

24 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 24 Réseau ART pour la classification non-supervisée

25 GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 25 ART: reconnaissance de lettres manuscrites = 0,9 = 3 et plus nouvelle catégorie

26 Chapitre 3 Le Perceptron

27 Réseaux de Neurones Application en Reconnaissance de Formes daprès B. Solaiman Dépt. Image & Traitement de l'Information Ecole Nationale Supérieure des Télécommunications de Bretagne

28 Plan 1 Problématique de reconnaissance de formes 2 Développement dune solution neuronale 3 Neurone formel - Perceptron, Madaline

29 1 Bref historique Comprendre lintelligence humaine Voie NeurobiologiqueVoie fonctionnelle Raisonnement, Logique macroscopique, Fonctionnalités réalisées. Connaissance neurobiologique, psychologie expérimentale, Structure du système nerveux central. MathématiquesElectronique ?

30 1 Bref historique 1890 : « Principles of Psychology », J. Williams, NY Voie Neurobiologique Système nerveux : fibres de propagation de courants électriques Thoughts and bodily actions are produced as a result of these currents flowing from regions having an excess of electrical charge to regions having a deficit of electrical charge. The intensity of the thoughts and actions are proportional to the current flow rate which in turns, is proportional to the difference of charge between the two regions. … Concept de neurone : source de décharge Connexions synaptiques : support de transmission des courants

31 1 Bref historique 1938 : N. Rashevski « Mathematical biophysics », Univ. Chicago Press : The brain could be organized around binary logic operations …. 1943 : Warren McCulloch and Walter Pitts : «A logical calculus of the ideas immanent in nervous activity » + + - - 1 0 1 1 0 Opération XOR de Rashevski Seule opération proposée Formulation analogique Concept de seuillage (neurone dans lun des états : activé, inhibé).

32 1 Bref historique 1949 : D. Hebb «The organization of behaviour», McGill, Univ. Règle de Hebb : Modification des règles dapprentissage de W. James 1954 : Farley and Clark, M.I.T Simulation du 1 er réseau de neurones inspiré de la règle de Hebb 1958 : Frank Rosenblatt, Le perceptron 1960 : Bernard Widrow, Marcain Hoff, Adaline 1969 : Minsky et Papert, « Perceptrons, an introduction to computational geometry »

33 Les réseaux de neurones Neuropsychologie Approche statistique Approche statistique Intelligence Artificielle Intelligence Artificielle 1 Bref historique Trois points de vue MémoireModèles mathématiques Représentation des connaissances

34 Problématique de Reconnaissance de Formes 1 Espace d'entrée X Extraction des primitives Espace des primitives Y Système de décision Espace des décisions D

35 z = u + v...................... y1y1 1 Problématique de reconnaissance de formes Les primitives : 1 Les vecteurs propres....................... x y i j z z = x 1 + y 1 i j x1x1 v x i j z u V1V1 V2V2 V1V1 V2V2

36 1 Problématique de reconnaissance de formes 2 Les primitives visuelles ….

37 1 Problématique de reconnaissance de formes 3 Les vecteurs prototypes....... z (x,y) z(d1,d2,d3)....................... y x z P1 P2 P3....................... d1 z d2 d3 P1 P2 P3......................

38 1 Problématique de reconnaissance de formes Système de décision Données disponibles : Primitives à utiliser Base dexemples et sa nature Connaissances disponibles : Modèles et connaissances a priori Caractéristiques exigées

39 1 Problématique de reconnaissance de formes Système de décision : Exemple Classifieur bayésien Primitives à utiliser : données numériques Base dexemples et sa nature : Base étiquetée Modèles a priori : Densités de probabilité Caractéristiques exigées :Taux derreur, fausse alarme,.. À estimer classe / classe

40 2 Problématique de reconnaissance de formes Système de décision : Exemple Classifieur bayésien

41 2 Problématique de reconnaissance de formes Système de décision : Exemple Classifieur bayésien Classe : Blé

42 Développement dune solution neuronale 2 Problème formel Un ensemble de connaissances Une base dapprentissage Case Based Reasoning

43 Problème formel : Reconnaissance de chiffres manuscrits Connaissances : Lensemble des chiffres (0, 1, …, 9), La structures des chiffres, Forme de représentation (images 16x16), Les primitives à utiliser, Les méthodes de pré-traitement utilisées,.. Une base dapprentissage : 5, Chiffre « 5 » ?

44 Problème formel : Reconnaissance de pannes dans les cartes électroniques. Connaissances : Lensemble des pannes potentielles, Les mesures réalisables, Une base dapprentissage : Carte + panne + Mesures associées

45 2 Développement dune solution neuronale Démarche 1 Identifier les connaissances exploitables 2 Définir larchitecture neuronale adéquate : a. objectifs, b. nature de la base dapprentissage 3 Définir la mémoire et lalgorithme dapprentissage 4 Définir la stratégie de décision

46 2 Développement dune solution neuronale Catégorisation des R.d.N en Reconnaissance de Formes 1 Les réseaux de neurones classifieurs Extraction des primitives Réseau de neurones classifieur Espace dobjets Espace des primitives Espace des décisions

47 Réseau de neurones dextraction de primitives 2 Développement dune solution neuronale 2 Les réseaux de neurones extracteurs de primitives Système de décision Espace dobjets Espace des primitives Espace des décisions

48 2 Développement dune solution neuronale 3 Les réseaux de neurones extracteurs de primitives/Classifieurs Réseau dextraction de primitives / classifieurs Extraction des primitives Système de décision Espace dobjets Espace des primitives (dobservations) Espace des décisions

49 Neurone formel : Réseaux perceptron et madaline 3 Le neurone formel de McCulloch&Pitts ?.AND..OR..XOR. ….... Fonctions logiques

50 1 x1x1 wnwn xnxn wNwN xNxN y Circuit à seuil Combinateur linéaire adaptatif yqyq Modèle du neurone formel de McCulloch&Pitts 1943 Version circuit à seuil

51 w1w1 x1x1 wnwn xnxn wNwN xNxN y Combinateur linéaire adaptatif 1 b Biais Version somme biaisée

52 w 1 =+1 x1x1 x2x2 w 2 =+1 ET w 1 =+1 x1x1 x2x2 w 2 =+1 OU x1x1 x2x2 Sortie ET Sortie OU 1 1 11 1 1 1 1 Exemple

53 x1x1 x 2 D + D - x1x1 x2x2 D + D - x3x3 Surface de décision 3 Surface de décision 2 La fonction réalisée par un neurone formel : La séparation linéaire

54 Exemple : PQ P Q 11+1 1 1 Q P Y 1 w1w1 w2w2 b P Q P Q - - + -

55 P Q - - + - Exemple (suite) : La droite qui résoud le problème est donnée par : où b = -1 w 1 = 1 w 2 = 1 le signe de b vérifie que :

56 Exercice : PQ P Q 11+1 1+1 1+1 Q P Y 1 w1w1 w2w2 b P Q P Q + - + +

57 Exercice (solution) : P Q + - + + La droite qui résoud le problème est donnée par : où b = 1 w 1 = 1 w 2 = 1 le signe de b vérifie que :

58 Le neurone sépare deux classes mais ne permet pas de les caractériser ! x1x1 x2x2 D+D+ D-D- X Y C1C1 C2C2 x1x1 x2x2 s S(X) = S(Y)

59 Apprentissage des poids synaptiques Apprentissage ? 1 deux classes C 1 et C 2 linéairement séparables 2 Surface de séparation : 3 Apprentissage Base dexemples (X k, d(k)) d(k) = {0,1} ou {-1,+1} Estimer w n et b

60 Lalgorithme dapprentissage de Rosenblatt, 1958 w1w1 x 1 (k) wnwn x n (k) wNwN x N (k) y(k) y q (k) d(k) Algorithme de Rosenblatt Nouveaux [ w 1, w 2,…, w N ] e q (k) W (t+1) = W (t) + e q (k) X k

61 XkXk W (t) W(t+1) x1x1 x2x2 x3x3 W (t+1) = e q (k) X k Interprétation géométrique de lalgorithme de Rosenblatt La modification de poids est proportionnelle à lerreur et au vecteur dentrée et est de même direction que ce dernier

62 initialisation aléatoire des poids synaptiques; tant que CONDITION DARRÊT non vérifiée faire Pour k = 1 jusqu'à k = K faire présenter la forme X k à l'entrée; calculer y q (k); calculer e q (k); Pour n = 0 jusqu'à n = N faire ajustement des poids : w n (t+1) = w n (t) + e q (k) x n (k) Fin ; Fin. Le déroulement de lalgorithme d'apprentissage

63 Exemple : PQ P Q 111 10 01 00 Q P Ne t 1 w1w1 w2w2 b3b3 Out d Seuil à 0,2

64 Exemple (suite): PQb 111 w 1 w 2 b 111 Initialisation des poids à 0 w1w1 w2w2 b 111 (0 0 0) d 1 Calcul de la droite de séparation PQb 101 w 1 w 2 b 0 w1w1 w2w2 b 010 d Net Out 0 Net Out 2 1 … … …

65 Rosenblatt a démontré, 1960, la convergence de cet algorithme pour la séparation de deux classes à condition qu'elles soient linéairement séparables. Si e q (k) = 0 y q (k)= d(k) W (k+1) = W (k) (i.e. pas de modification des poids synaptiques) Exemple : = 0, d(k)= 1 y (k) = 0.0001 y (k) = 0.9999 e q (k) = 0

66 Lalgorithme de Widrow-Hoff, 1960 w1w1 x 1 (k) wnwn x n (k) wNwN x N (k) y(k) y q (k) d(k) Algorithme de Widrow- Hoff Nouveaux [w 1, w 2,…, w N ] e(k) Minimiser l'erreur analogique quadratique moyenne : [d(k) - y(k)] 2 W (t+1) = W (t) + e(k) X k

67 C1C1 C2C2 C1C1 C2C2 C1C1 C2C2 Widrow-Hoff C1C1 C2C2 C1C1 C2C2 C1C1 C2C2 Rosenblatt A p p r e n t i s s a g e

68 C2C2 C 1 x2x2 x 1 Marvin Minsky, 1969 Perceptrons, an introduction to computational geometry Le problème du XOR

69 x 1 x 2 Réseau Functional Link x1x1 x2x2 Modélisation non linéaire du neurone biologique x2x2 x1x1 D+D+ D - y = w 0 + w 11 (x 1 ) 2 + w 22 (x 2 ) 2 + w 12 x 1 x 2 + w 1 x 1 + w 2 x 2 = 0

70 réseaux Madaline x2x2 x 1 Z2Z2 Z1Z1 Solution « artificielle » et si N > 3 ? Naissance de larchitecture multicouches Y X2X2 X1X1 1 1 1 b1b1 v1v1 w 11 w 12 w 21 w 22 v2v2 b3b3 b2b2

71 Fausett, Prentice Hall, 1994 Exercice 2.7 PQPQ 111 1 1 Q P Y 1 w1w1 w2w2 b P Q PQb 111 11 11 1 w 1 w 2 b 111 1 1 000 w1w1 w2w2 b 111 020 11 11 d 1 Out 0 1 1 Net 0 1 2 -3

72 Exercice 2.7 (suite) P Q - - + - P Q - - + - P Q - - + - P + Q + 1 = 0Q = 0P + Q - 1 = 0 Étape 1Étape 2Étape 3

73 Fausett, Prentice Hall, 1994 Exercice 2.16 PQ P ¬Q 110 101 010 000 La règle dapprentissage de lADALINE cherche à minimiser lerreur quadratique totale : où est la valeur « Net » et d est un élément de la table de vérité de P ¬Q Q P Ne t 1 w1w1 w2w2 b Out d

74 Exercice 2.16 (suite) E = (w 1 + w 2 ) 2 + (w 1 – 1) 2 + (w 2 ) 2 2 w 1 + w 2 – 1 = 0 -4 w 2 + w 2 – 1 = 0 ou w 2 = -1/3 2(w 1 + w 2 ) + 2(w 2 ) = 0 w 1 + 2 w 2 = 0 ou w 1 = -2 w 2 w 1 = 2/3 2(w 1 + w 2 ) + 2(w 1 – 1) = 0 Le AND NOT sans valeur de biais consiste à minimiser : Il ny a pas derreur pour la dernière ligne du tableau logique, peu importe les valeurs de poids synaptiques. Les dérivées partielles en w 1 et w 2 permettent de trouver le minimum de E :

75 Exercice 2.16 (suite) 2(w 1 + w 2 + b) + 2(w 1 – 1 + b) = 0 E = (w 1 + w 2 + b) 2 + (w 1 – 1 + b) 2 + (w 2 + b) 2 + b 2 2(w 1 + w 2 + b) + 2(w 2 + b) = 0 2(w 1 + w 2 + b) + 2(w 1 – 1 + b) + 2(w 2 + b) + 2b = 0 2 w 1 + w 2 + 2b = 1 w 1 + 2 w 2 + 2b = 0 2 w 1 + 2 w 2 + 4b = 1 { w 1 = 0.5 w 2 = -0.5 b = 0.25 Le AND NOT avec valeurs de biais consiste à minimiser : Les dérivées partielles en w 1, w 2 et b permettent de trouver le minimum de E :


Télécharger ppt "GPA-779 Application des réseaux de neurones et des systèmes experts Cours #3 - 1 Plan 2- Domaines dapplication ClassificationRegroupement ApproximationPrédiction."

Présentations similaires


Annonces Google