La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Réseaux de neurones artificiels « le neurone formel »

Présentations similaires


Présentation au sujet: "Réseaux de neurones artificiels « le neurone formel »"— Transcription de la présentation:

1 Réseaux de neurones artificiels « le neurone formel »
S. Canu, laboratoire PSI, INSA de Rouen équipe « systèmes d’information pour l’environnement » asi.insa-rouen.fr/~scanu

2 Le neurone biologique

3 Le neurone formel

4 Le neurone formel

5 Phydsiologie

6 Discrimination Linéaire
+ + + + + + + + + Codage {-1,1}, fonction de décision de type « heaviside »

7 Géométrie : illustration dans R2

8 Estimation... et rêve

9 Cas gaussien multidimensionnel
Le Discriminateur de Bayes est linéaire... x = -3:0.1:3; y = x; [Xt,Yt]=meshgrid(x,y); theta = pi/3; sig=[1 cos(theta);cos(theta) 2]; sig2=sig*sig; sigmoinsun=inv(sig2); n=length(x); d = []; for i =1:length(x) for j =1:length(y) d1(i,j) = ([y(j) ;x(i)])'*sigmoinsun*([y(j) ;x(i)]); d2(i,j) = ([y(j) ;x(i)]-[2 ;.5])'*sigmoinsun*([y(j) ;x(i)]-[2 ;.5]); end; f1 = exp(-d1); f2 = exp(-d2); figure(1) [c h]=contourf(x,y,f1-f2); clabel(c,h); title({'aa','ss'});

10 Moindres carrés X = [x1 ; x2]; X = [X ones(length(X),1)];
yi = [ones(length(x1),1) ; -ones(length(x2),1)]; W = (X'*X)\(X'*yi); west = W(1:2); best = W(3);

11 Résistance aux « outliers »

12 Moindre carrés « stochastiques » ADALINE (Widrow Hoff 1960)
Algorithme itératif de gradient

13 Algorithme de gradient : illustration dans le plan w1,w2
Lignes d ’iso-coût : J(W) = constante Minimum du coût w2 + Direction du gradient J’(W) Le gradient est orthogonal aux lignes d ’iso coût : argument à la « Taylor » w1

14 3 solutions LE NEURONE FORMEL

15 Algorithme itératif Stabilisation du coût (erreur relative)
nbitemax = 50; k=0; while ((cout > 0) & (k<nbitemax)) K=K+1; ind = randperm(length(X)); for i=1:length(X) Dir = (sign(X(ind(i),:)*W)-yi(ind(i)))*X(ind(i),:); W = W - pas*Dir'; end cout = sum(abs(sign(X*W)-yi)); disp([k cout]); Stabilisation du coût (erreur relative) Randomisation (ok si n grand) Évaluation du coût : n opérations

16 ADALINE, Ça marche...

17 ADALINE des fois ça ne marche pas…
Solution au sens des moindres carrés

18 Le Perceptron, des fois ça ne marche pas...
...Quand les exemples ne sont pas linéairement séparables

19 Règle du perceptron (Rosenblatt 1958)
codage

20 Règle du perceptron (Rosenblatt 1958)
Pas de fonction coût minimisée preuve de convergence (dans le cas linéairement séparable)

21 Règle du perceptron (Rosenblatt 1958)

22 Convergence des algorithmes de gradient

23 Performances des algorithmes linéaires
Théorème (Vapnik & Chervonenkis, 1974)

24 Performances des algorithmes linéaires
Théorème (Vapnik & Chervonenkis, 1974) borne Probabilité d’erreur précision risque empirique Asymptotiquement « jouable » Malédiction de la dimensionnalité

25 Conclusion Neurone formel = Modèle linéraire Estimation des paramètres
directe rapide - n3 itérative lent - apprentissage au coup par coup OCR : n=106


Télécharger ppt "Réseaux de neurones artificiels « le neurone formel »"

Présentations similaires


Annonces Google