La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Apprentissage (II) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes.

Présentations similaires


Présentation au sujet: "Apprentissage (II) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes."— Transcription de la présentation:

1 Apprentissage (II) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes

2 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II2 plan cest quoi ? différents types dapprentissage –supervisé les réseaux de neurones –le perceptron –réseaux plus complexes quelques résultats de la théorie de lapprentissage différents types dapprentissage bayesien non supervisé par renforcement

3 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II3 classifieur élémentaire : le perceptron dinspiration biologique : « neurone » élémentaire surface discriminante linéaire : stabilité dun exemple : –distance à la surface discriminante avec signe – si mal classé x1x1 x2x2 xNxN xixi w1w1 wNwN =sgn(w.x) input : output : w

4 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II4 commentaire 1 inspiration biologique : –McCullock et Pitts (1943) des unités binaires connectées en cascades peuvent réaliser toutes les fonctions logiques –Rosenblatt (1962) une unité binaire peut apprendre à reconnaître des formes : perceptron Minsky et Pappert (1969) : le perceptron nest pas intéressants : il ne peut faire que des séparations linéaires –Hopfield (1982) un réseau dunités binaires interconnectées avec des poids J ik données par la règle de Hebb, modèlise une mémoire associative

5 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II5 algorithme du perceptron on initialise les poids du perceptron on parcourt les exemples –si la sortie donnée par le perceptron est incorrecte, on modifie les poids –jusquà convergence convergence assurée seulement si les exemples sont linéairement séparables si les exemples sont linéairement séparables : infinité de solutions entrée · sortie

6 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II6 commentaire 2 règle de Hebb – modèle de Hopfield : algorithme du perceptron : état du neurone de sortieétat du neurone dentrée wiwi i k J ik i

7 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II7 exemples non séparables linéairement problème : –lalgorithme du perceptron ne converge pas –les autres algorithmes convergent mais souvent vers des solutions « non intéressantes » (trop dexemples mal classés) deux solutions : « classiques » : réseaux en couches « moderne » : Support Vector Machines

8 solution classique : perceptron multicouche

9 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II9 perceptrons binaires « cachés » réseau en couches avec unités binaires permet de représenter des surfaces discriminantes plus complexes méthode constructive : –on rajoutte des perceptrons cachés un à un : plusieurs heuristiques x1x1 x2x2 xNxN xixi w1w1 w2w2 w3w3 x1x1 x2x couche cachée représentations internes

10 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II10 apprentissage dune fonction réelle L M = { (x y ) } 1 M, x =(x 1, x 2, …, x N ) ; y R neurones cachés à valeurs réelles peut apprendre toute fonction continue des entrées –à condition que le nombre de neurones cachés soit suffisant apprentissage : "error backpropagation" –minimisation de lécart quadratique : problèmes : –beaucoup de minima locaux : qualité de la solution ? –nombre de neurones cachés : par tâtonnement x1x1 x2x2 xNxN xixi w1w1 w2w2 w3w3 couche cachée =tanh(w.x)

11 solution « moderne » Machines à Vecteurs Support (SVM)

12 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II12 marge : distance à la surface discriminante de lexemple le plus proche perceptron de marge maximale 2

13 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II13 Support Vector Machines (SVM) application de l'espace des entrées x vers un espace de plus grande dimension (feature space) Support Vector Machine = perceptron de marge maximale dans le feature space algorithmes efficaces exemple:

14 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II14 théorie de lapprentissage question fondamentale : –est-ce que minimiser le nombre derreurs garantit quon minimise la probabilité de mal classer de nouvelles données ? g : erreur de généralisation (de prédiction) -> probabilité de faire une erreur de classification sur des entrées autres que les exemples réponse : –oui, à condition que le nombre dexemples M soit supérieur à la capacité du réseau capacité nombre maximum dexemples que lon peut apprendre sans erreurs, quels que soient les exemples –proportionnelle au nombre de paramètres à déterminer –perceptron 2N où N est le nombre de poids = dimension des entrées

15 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II15 erreur de prédiction tâches de classification réalisables et non réalisables : –pour un perceptron : réalisable -> séparable linéairement comment varie g en fonction du nombre dexemples ? –tâche réalisable : le meilleur algorithme : Bayes (b 0.5) g coeff qui dépend de lalgorithme

16 inférence bayesienne

17 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II17 règle de Bayes probabilités b a p(a) p(b) p(a,b) p(a) p(b|a) p(b) p(a|b)

18 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II18 inférence bayesienne inférence = apprentissage –modifier les hypothèses en fonction des données (exemples) cadre probabiliste : –on se donne un modèle des données perceptron le problème est linéairement séparable –probabilité a priori des paramètres du modèle en absence de toute autre information : equiprobabilité tous les poids w ont la même probabilité L M = { (x ) } 1 M on utilise les exemples pour calculer la probabilité a posteriori des poids avec la règle de Bayes

19 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II19 inférence des poids dun perceptron formule de Bayes : a priori : modèle des données –paramétré par les poids w p(w) p0(w)p0(w)

20 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II20 probabilité des poids a posteriori hyperplans compatibles avec L M probabilité a posteriori cte > 0 p0(w)p0(w) a priori : p 0 (w) p(w|L M ) probabilité a posteriori = 0

21 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II21 classifieur bayesien optimal comment classer la nouvelle entrée ? –on classe comme la moyenne pondérée des poids (pondérée par la probabilité a posteriori) –dans notre cas : poids équiprobables règle de la majorité p(w) p0(w)p0(w) p(w|L M ) perceptron optimal

22 mars - Ecole CNRS Agay Systèmes Complexes SHS - Apprentissage II22 inférence bayesienne : résumé hypothèse a priori vraisemblance des données paramètres a posteriori (compatibles avec L M )

23 fin deuxième cours


Télécharger ppt "Apprentissage (II) Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble Dynamique des systèmes complexes et applications aux SHS : modèles, concepts méthodes."

Présentations similaires


Annonces Google