Réseaux de neurones artificiels « le neurone formel »

Slides:



Advertisements
Présentations similaires
Programmation linéaire et Recherche opérationnelle
Advertisements

Plan Les réseaux de neurones Le réseau RBF RBF et Mushroom Historique
Présentation de la société, des logiciels et des services
Introduction générale aux réseaux de neurones artificiels
Réseaux de Neurones Artificiels
LES RESEAUX DE NEURONES
1. Représentation du mouvement dans le plan - image
3. Analyse et estimation du mouvement dans la vidéo
Journée de Travail Groupe “Bermudes”
LES RESEAUX DE NEURONES
THÈME APPLICATION OF THE ARTIFICIAL NEURAL NETWORK FOR MODELING THE THERMAL BEHAVIOR OF BUILDING IN HUMID REGION Léopold Mbaa, Pierre Meukamb, Alexis.
DEA instrumentation et commande
Reconnaissance des formes cours de D.E.A. Introduction
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Classification automatique de documents
Mirta B. Gordon Laboratoire Leibniz-IMAG Grenoble
Application des algorithmes génétiques
Réseaux de neurones artificiels « la rétropropagation du gradient »
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Représentation du Thésaurus MeSH et de la Terminologie CISMeF en OWL
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Rappel... Opérations élémentaires sur les matrices:
Consultant / Chef de Projet indépendant
Algorithmique et programmation Informatique Cours 9 12/11/2001.
Méthodes Connexionnistes Apprentissage Fusion d’informations
PROGRAMMATION SCIENTIFIQUE EN C
DEA Perception et Traitement de l’Information
DEA Perception et Traitement de l’Information
Réseaux de neurones.
Introduction aux plans dexpériences P. Lambert Daprès J.-M. Fuerbringer, Design of Experiments, Mai 2006.
Quizz rdf Dess IE. La RDF globale: 1.Quand il y a 2 classes seulement 2.Quand on fait un apprentissage 3.Quand les formes sont représentées par des vecteurs.
Ajustements c2 non-linéaires
Les réseaux de neurones
Mémoires associatives
Résumé Domaine des réseaux de neurones.
Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE.
SUJETS SPÉCIAUX EN INFORMATIQUE I
Yves Lechevallier Cours CNAM
Approches non intrusives des éléments finis stochastiques
Les réseaux de neurones
Estimation fonctionnelle à l’aide de S.V.M.
DEA Perception et Traitement de l’Information
Introduction à la reconnaissance:
ASI 3 Méthodes numériques pour l’ingénieur
ASI 3 Méthodes numériques pour l’ingénieur
Outils mathématiques pour le datamining
ASI 3 Méthodes numériques pour l’ingénieur
1 Algorithmique et programmation en Itérations (boucles) Types numériques simples (suite)
RESEAUX DE NEURONES.
ASI 3 Méthodes numériques pour l’ingénieur
Une méthode de prévision à un pas de temps Application à la prévision de la qualité de l’air S. Canu, Ph. Leray, A. Rakotomamonjy laboratoire PSI, équipe.
Réseaux de neurones artificiels « programmation par l’exemple »
S. Canu, laboratoire PSI, INSA de Rouen
Intelligence Artificielle
Réseaux de neurones à base radiale
Apparence globale 1 image = 1 vecteur Base apprentissage Rotation –capture les variabilités Troncature –Quelques coefficients Représentation linéaire Espace.
ASI 3 Méthodes numériques pour l’ingénieur
Chapitre 1 - Introduction.
GRAPHISME PAR ORDINATEUR SIF Contenu du cours 13 Introduction à l’intelligence artificielle dans les environnements de jeux 3D –Notions d’agents.
ASI 3 Méthodes numériques pour l’ingénieur
Méthode des moindres carrés (1)
GPA-779 Application des systèmes experts et des réseaux de neurones.
Chloé Huetz Thèmes Organisations temporelles des décharges neuronales
Le modèle de régression linéaire Claude Marois © 2010.
Évolution de second ordre dans un algorithme évolutionnaire V. Lefort
La grande combinaison: problèmes et solutions Pourquoi les combinaisons ? Comment combiner ? Les problèmes techniques ? Les solutions possibles Prospectives.
CHAPTER 11: Perceptron Multicouches
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Réseaux de neurones artificiels « programmation par l’exemple » S. Canu, laboratoire.
Combien il y a de carrés?.
Transcription de la présentation:

Réseaux de neurones artificiels « le neurone formel » S. Canu, laboratoire PSI, INSA de Rouen équipe « systèmes d’information pour l’environnement » asi.insa-rouen.fr/~scanu

Le neurone biologique

Le neurone formel

Le neurone formel

Phydsiologie

Discrimination Linéaire + + + + + + + + + Codage {-1,1}, fonction de décision de type « heaviside »

Géométrie : illustration dans R2 °

Estimation... et rêve

Cas gaussien multidimensionnel Le Discriminateur de Bayes est linéaire... x = -3:0.1:3; y = x; [Xt,Yt]=meshgrid(x,y); theta = pi/3; sig=[1 cos(theta);cos(theta) 2]; sig2=sig*sig; sigmoinsun=inv(sig2); n=length(x); d = []; for i =1:length(x) for j =1:length(y) d1(i,j) = ([y(j) ;x(i)])'*sigmoinsun*([y(j) ;x(i)]); d2(i,j) = ([y(j) ;x(i)]-[2 ;.5])'*sigmoinsun*([y(j) ;x(i)]-[2 ;.5]); end; f1 = exp(-d1); f2 = exp(-d2); figure(1) [c h]=contourf(x,y,f1-f2); clabel(c,h); title({'aa','ss'});

Moindres carrés X = [x1 ; x2]; X = [X ones(length(X),1)]; yi = [ones(length(x1),1) ; -ones(length(x2),1)]; W = (X'*X)\(X'*yi); west = W(1:2); best = W(3);

Résistance aux « outliers »

Moindre carrés « stochastiques » ADALINE (Widrow Hoff 1960) Algorithme itératif de gradient

Algorithme de gradient : illustration dans le plan w1,w2 Lignes d ’iso-coût : J(W) = constante Minimum du coût w2 + Direction du gradient J’(W) Le gradient est orthogonal aux lignes d ’iso coût : argument à la « Taylor » w1

3 solutions LE NEURONE FORMEL

Algorithme itératif Stabilisation du coût (erreur relative) nbitemax = 50; k=0; while ((cout > 0) & (k<nbitemax)) K=K+1; ind = randperm(length(X)); for i=1:length(X) Dir = (sign(X(ind(i),:)*W)-yi(ind(i)))*X(ind(i),:); W = W - pas*Dir'; end cout = sum(abs(sign(X*W)-yi)); disp([k cout]); Stabilisation du coût (erreur relative) Randomisation (ok si n grand) Évaluation du coût : n opérations

ADALINE, Ça marche...

ADALINE des fois ça ne marche pas… Solution au sens des moindres carrés

Le Perceptron, des fois ça ne marche pas... ...Quand les exemples ne sont pas linéairement séparables

Règle du perceptron (Rosenblatt 1958) codage

Règle du perceptron (Rosenblatt 1958) Pas de fonction coût minimisée preuve de convergence (dans le cas linéairement séparable)

Règle du perceptron (Rosenblatt 1958)

Convergence des algorithmes de gradient

Performances des algorithmes linéaires Théorème (Vapnik & Chervonenkis, 1974)

Performances des algorithmes linéaires Théorème (Vapnik & Chervonenkis, 1974) borne Probabilité d’erreur précision risque empirique Asymptotiquement « jouable » Malédiction de la dimensionnalité

Conclusion Neurone formel = Modèle linéraire Estimation des paramètres directe rapide - n3 itérative lent - apprentissage au coup par coup OCR : n=106