Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
Publié parAnge OTIS Modifié depuis plus de 6 années
1
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Réseaux de neurones artificiels « programmation par l’exemple » S. Canu, laboratoire PSI, INSA de Rouen équipe « systèmes d’information pour l’environnement » asi.insa-rouen.fr/~scanu
2
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Plan de Route – études de cas – nez électronique – capteur logiciel – prévision de charge entrante – modélisation de l’écrouissage — Conclusion : programmation à base d’exemples – l’apprentissage simple – une affaire de noyaux ! – qui se ressemble s’assemble – Réseaux de neurones — perceptrons multicouches — fonctions de bases radiales
3
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Système d’information pour l’environnement
4
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Système d’information pour l’environnement Nature des phénomènes beaucoup de données disponibles dépendances complexes : non linéaires, bruités les événements intéressants sont rares
5
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Système d’information pour l’environnement Nature des phénomènes beaucoup de données disponibles dépendances complexes : non linéaires, bruités les événements intéressants sont rares Problèmes à résoudre validation de données prévision à court terme évaluation de la situation décision.
6
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Système d’information pour l’environnement Nature des phénomènes beaucoup de données disponibles dépendances complexes : non linéaires, bruités les événements intéressants sont rares Solution programmation à base d’exemple précision de la prévision domaine de validité Problèmes à résoudre validation de données prévision à court terme évaluation de la situation décision.
7
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Quelques exemples
8
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Nez électronique Objectifs – remplacer un capteur coûteux par 6 capteurs « bon marché » – détecter certaines situation critiques Données disponibles – 280 points de mesures – 12 variables mesurées (pentes et conductance des capteurs) a priori – phénomènes « réguliers » – coût « absolu » méthode – S.V.M. (un genre de réseau de neurones) – sélection des variables pertinentes par analyse discriminante – définition des zones d’ambiguïté – définition d’un domaine de validité du domaine Résultats
9
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Nez électronique inconnus Ambigus Classe 1 Classe 2 Classe 3 Régle de décision dans le plan de l’AFD
10
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Capteur logiciel Objectifs – valider les données d’un capteur physique de NH 4 – remplacer ce capteur pour la détection Données disponibles – 4 années, toutes les heures – 24 variables mesurées (pH, température, conductance, turbidité,…) – beaucoup de données manquantes a priori – phénomènes « réguliers » – coût quadratique méthode – réseau de neurones – sélection des variables pertinentes – prévision de l’erreur de prédiction par un autre réseau de neurones – définition d’un domaine de validité du domaine Résultats
11
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Capteur logiciel
12
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 R.P.S. : Consommation journalière en 1988 Consommation en m3 Mois
13
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Spécifications fonctionnelles Algorithme de prévision Informations météorologiques : - pluie, - température - neige,... consommations passées Informations sociales - jour de la semaine - vacances scolaires - jour ferié,... La consommation du lendemain
14
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 RNA y = W f ( W f (W X) ) 211 32
15
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Spécifications fonctionnelles Algorithme de prévision Informations météorologiques : - pluie, - température - neige,... consommations passées Informations sociales - jour de la semaine - vacances scolaires - jour ferié,... La consommation du lendemain
16
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Modèle de type “boite noire” Situation : X Information non observable Y y p = r(x) Algorithme de prévision Informations météorologiques : - pluie, - température - neige,... consommations passées Informations sociales - jour de la semaine - vacances scolaires - jour ferié,... La consommation du lendemain
17
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Prévision de la classe de qualité du bois But : Minimiser les erreurs de classement Données : –550 points de mesures –Entrées : mesures physique sur les planches –Sorties : point de rupture Classe Informations a priori –nature des classes
18
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Prévision de la charge entrante Objectifs – prévoir quand et quelle quantité de polluant va arriver à. la station d’épuration Données disponibles – 12 années, toutes les heures – 24 variables mesurées : pluie, charge entrante, température a priori – phénomènes « réguliers » – coût quadratique méthode – prévision de la pluie par un réseau de neurones – prévision de la charge par un second réseau de neurones – structurer les réseaux de neurones à priori – définition d’un domaine de validité du domaine
19
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Optimisation de la qualité du verre (Saint Gobain) But : Optimiser la fabrication Données : –127 points de mesures (plan d’expérience) –Entrées : quantités de “sables” –Sorties : mesures physiques Informations a priori –pas de variations brusques (monotonie)
20
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Qualité du verre
21
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Qualité du verre
22
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Qualité du verre
23
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Écrouissage Objectif – prévoir le comportement de l’alliage en fonction des forces Données disponibles – simulations logiciel dans un premier temps – données réelles ensuite a priori – phénomènes temporels à mémoire – coût quadratique méthode – réseau de neurones récurrents (bouclés) – approche incrémentale Résultats
24
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Écrouissage f(t) : la force appliquée au cours du temps e(t) : l’allongement constaté au cours du temps Déformations - plastiques - élastiques Écrouissage - isotrope - cinématique
25
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Écrouissage f(t) : la force appliquée au cours du temps e(t) : l’allongement constaté au cours du temps Déformations - plastiques - élastiques Écrouissage - isotrope - cinématique Pour une même valeur du couple (F,D) le futur est imprédictible Il faut connaître le passé du système
26
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Écrouissage : le modèle « statistique » xx e(t) = e(t-1) + D (f(t)-f(t-1)) z -1 e sp sm f(t) f(t-1) 1 1 +1 a+b a-b -a Plastique/Elastique 1 Monte/Descend On cherche à « écrire » un programme, qui à partir d’une suite de « forces » calcule la réponse de la pièce
27
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Écrouissage
28
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Écrouissage : résultats mesure modèle
29
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Écrouissage : résultats
30
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Apprendre : des entrées : X, et des sorties : Y But : trouver une dépendance : r(X) Utilisation : pour un X donné : prévoir Y Connaissance : données : (X i,Y i ), i=1,n cout : C (x,r(x),y ) a priori sur la structure du modèle Difficultés : Généralisation données limitées remplir les trous Tâches génériques : Discrimination, Régression, Prévision à un pas de temps, Identification
31
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Modules logiciels Apprendre : des entrées : X, et des sorties : Y But : trouver une dépendance : r(X) Utilisation : pour un X donné : prévoir Y Connaissance : données : (X i,Y i ), i=1,n cout : C (x,r(x),y ) a priori sur la structure du modèle Difficultés : Généralisation données limitées remplir les trous Tâches génériques : Discrimination, Régression, Prévision à un pas de temps, Identification
32
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Que peut on faire ?
33
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Que peut on faire ? – résumer – classer – prévoir
34
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Les Trois problèmes Regrouper des informations et les quantifier : faire des classes – nuées dynamiques, – EM – Cartes auto-organisatrices de Kohonen Classer une nouvelle donnée : affecter à une classe –discrimination linéaire : le neurone formel –les méthodes à base de noyaux –SVM Prévoir le comportement d’une variable : avec ou sans le temps –régression linéaire –RBF –PCM XnXn X1X1 Les données
35
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Les Trois problèmes Regrouper des informations et les quantifier : faire des classes – nuées dynamiques, – EM – Cartes auto-organisatrices de Kohonen Classer une nouvelle donnée : affecter à une classe –discrimination linéaire : le neurone formel –les méthodes à base de noyaux –SVM Prévoir le comportement d’une variable : avec ou sans le temps –régression linéaire –RBF –PCM XnXn X1X1
36
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Les Trois problèmes Regrouper des informations et les quantifier : faire des classes – nuées dynamiques, – EM – Cartes auto-organisatrices de Kohonen Classer une nouvelle donnée : affecter à une classe –discrimination linéaire : le neurone formel –les méthodes à base de noyaux –SVM Prévoir le comportement d’une variable : avec ou sans le temps –régression linéaire –RBF –PCM XnXn X1X1
37
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Les Trois problèmes Regrouper des informations et les quantifier : faire des classes – nuées dynamiques, – EM – Cartes auto-organisatrices de Kohonen Classer une nouvelle donnée : affecter à une classe (décider) –discrimination linéaire : le neurone formel –les méthodes à base de noyaux –SVM Prévoir le comportement d’une variable : avec ou sans le temps –régression linéaire –RBF –PCM XnXn X1X1 ? +
38
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Les Trois problèmes Regrouper des informations et les quantifier : faire des classes – nuées dynamiques, – EM – Cartes auto-organisatrices de Kohonen Classer une nouvelle donnée : affecter à une classe –discrimination linéaire : le neurone formel –les méthodes à base de noyaux –SVM Prévoir le comportement d’une variable : avec ou sans le temps –régression linéaire –RBF –PCM XnXn X1X1 + + + + + + + + + + + + x x x x x x x x x x x x x x
39
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Les Trois problèmes Regrouper des informations et les quantifier : faire des classes – nuées dynamiques, – EM – Cartes auto-organisatrices de Kohonen Classer une nouvelle donnée : affecter à une classe –discrimination linéaire : le neurone formel –les méthodes à base de noyaux –SVM Prévoir le comportement d’une variable : avec ou sans le temps –régression linéaire –RBF –PCM XnXn X1X1 + + + + + + + + + + + + x x x x x x x x x x x x x x
40
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Modèle « boite noire » y = r(X) Y = F(X, ) Prévision ^ erreur X Entrées Observables Entrées Non Observables Système Réel CRITERE
41
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Les différentes étapes d’une application – Recueil des données brutes – génération de caractéristiques – sélection des caractéristiques pertinentes – étiquetage des classes – conception du classifieur – évaluation du système
42
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 notations espace des sources J coût d ’une règle de décision (erreur de prédiction)
43
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Conclusion C’est un outil dont il ne faut pas se priver Les méthodes statistiques peuvent dans certains cas apporter des solution originales à des problèmes « difficiles » il faut disposer de données on fait de la programmation à partir de données la notion de « coût » est fondamentale il faut disposer d’une bonne méthodologie il était une fois un concours de prévision...
44
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Modèle “Boite Noire”... fontion de prévision : r(x) fonction de précision : (x) Innovation Y = F(X, ) X Système Réel Y = r(x) + (x) {...Minimise l’erreur de prédiction
45
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Variance non constante distribution non gaussienne r(x) x P(Y/X=x)
46
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Variance non constante distribution non gaussiènne r(x) x P(Y/X=x)
47
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Cas multi modal (Bishop (94)) E(Y/X) P(x,y) x P(Y/X=x)
48
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Cas multi modal (Bishop (94)) E(Y/X) P(x,y) x P(Y/X=x)
49
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Exemples : (formes x, étiquettes y, confiance) A lgorithme programme
50
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Exemples : (formes x, étiquettes y, confiance) A lgorithme programme Pas de modèle : – si on veut pourvoir tout apprendre, il faut contrôler la complexité Représentation des incertitudes : – fusion d’informations incertaines Méthodologie et applications : – domaine de validité, intervalle de confiance, heuristiques
51
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Exemples : (formes x, étiquettes y, confiance) A lgorithme programme Pas de modèle : – si on veut pourvoir tout apprendre, il faut contrôler la complexité Représentation des incertitudes : – fusion d’informations incertaines Méthodologie et applications : – domaine de validité, intervalle de confiance, heuristiques cout
52
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Exemples : (formes x, étiquettes y, confiance) A lgorithme programme Pas de modèle : – si on veut pourvoir tout apprendre, il faut contrôler la complexité Représentation des incertitudes : – fusion d’informations incertaines Méthodologie et applications : – domaine de validité, intervalle de confiance, heuristiques cout
53
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Exemples : (formes x, étiquettes y, confiance) A lgorithme programme Pas de modèle : – si on veut pourvoir tout apprendre, il faut contrôler la complexité Représentation des incertitudes : – fusion d’informations incertaines Méthodologie et applications : – domaine de validité, intervalle de confiance, heuristiques a prioricout
54
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Exemples : (formes x, étiquettes y, confiance) A lgorithme programme Pas de modèle : – si on veut pourvoir tout apprendre, il faut contrôler la complexité Représentation des incertitudes : – fusion d’informations incertaines Méthodologie et applications : – domaine de validité, intervalle de confiance, heuristiques a prioricout
55
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Exemples : (formes x, étiquettes y, confiance) A lgorithme programme Pas de modèle : – si on veut pourvoir tout apprendre, il faut contrôler la complexité Représentation des incertitudes : – fusion d’informations incertaines Méthodologie et applications : – domaine de validité, intervalle de confiance, heuristiques a prioricout
56
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Programmation à base d’exemples Exemples : (formes x, étiquettes y, confiance) A lgorithme programme Pas de modèle : – si on veut pourvoir tout apprendre, il faut contrôler la complexité Représentation des incertitudes : – fusion d’informations incertaines Méthodologie et applications : – domaine de validité, intervalle de confiance, heuristiques a prioricout
57
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Aspects fondamentaux Poser le problème les enjeux théoriques de l'apprentissage Explorer une solution possible la régularisation Développer de nouvelles approches nouveaux algorithmes Étude d'un problème fondamental sélectionner les variables explicatives pertinentes
58
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Exemple d’application Huile +gaz +eau Bouchons
59
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Prévoir la taille des bouchons Algorithme de prévision Une forme x historique, taille, profil et points bas de la canalisation température, débit y « date » d’arrivé et taille du prochain bouchon
60
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 y « date » d’arrivé et taille du prochain bouchon Prévoir la taille des bouchons Algorithme de prévision Une forme x historique, taille, profil et points bas de la canalisation température, débit A : Algorithme d’apprentissage Ensemble d’apprentissage (échantillon) 1
61
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Prévoir la taille des bouchons Algorithme de prévision Une forme x historique, taille, profil et points bas de la canalisation température, débit A : Algorithme d’apprentissage Ensemble d’apprentissage (échantillon) 2 1 y « date » d’arrivé et taille du prochain bouchon
62
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Prévoir la taille des bouchons Algorithme de prévision Une forme x historique, taille, profil et points bas de la canalisation température, débit A : Algorithme d’apprentissage Ensemble d’apprentissage (échantillon) A priori sur la nature de la solution 2 1 3 y « date » d’arrivé et taille du prochain bouchon
63
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Quelques exemples de RdF
64
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Quelques exemples de RdF
65
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Quelques exemples de RdF – C’est un rond, c’est un carré, (une forme quoi !) – le feu est vert, (je passe, ou je m’arrête ! Classe = action possible) – votre électrocardiogramme est normal : diagnostic = détection : signal ou bruit (inspection : qualité, monitoring) – c’est une facture téléphone (reconnaissance syntaxique : les « règles ») – odeur : c’est une madeleine – caractère - écriture (c’est une lettre, un mot, une phrase, un sens) – parole (forme temporelle) – voix, identification : c’est Chirac aux guignol, localisation d’une source et séparation – visage (vision) – identification : visage + voix + odeur + empreintes : c’est « Chirac » – une voiture (concept imprécis) – il va pleuvoir (fusion de données - décision incertaine) Aspects humains
66
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Quelques problèmes de RdF – C’est un rond, c’est un carré, Distance avec des formes de références – le feu est vert, (je passe, ou je m’arrête)Représentation des caractéristiques – votre électrocardiogramme est normal : diagnostic = détection : signal ou bruit Cadre aléatoire – c’est une facture téléphone Modèle = les « règles » (même source) – odeur : c’est une madeleine capteur complexe – caractère - écriture complexité de la tâche (c’est une lettre, un mot,...)modélisation par apprentissage – parole (forme temporelle)Temps (système évolutif :environnement) – voix (c’est Chirac aux guignol), complexité de l’espace des caractéristiques – visage (vision)invariances – identificationfusion - (informations hétérogènes) – une voiture (concept imprécis)définition des classes (monitoring) – il va pleuvoir décision aléatoire
67
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Les différentes phases des algorithmes de reconnaissance des formes source représentation caractéristiques décision (action) capteur Prétraitement extraction de caractéristiques Algorithme de R des F espace des sources espace des caractéristiques espace des décision
68
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Buts de la RdF Algorithme de Reconnaissance des Formes Une forme x (vecteur forme des caractéristiques) C’est la forme « y » 1. Un algorithme de reconnaissance des formes est une règle de Décision (déterministe dans le cours) 2. Une règle de décision déterministe établie un partitionnement de l’espace des caractéristiques C’est le problème de discrimination « je ne sais pas », « inconnue »
69
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Règles de décision XnXn X1X1 + + + + + + + + + + + + x x x x x x x x x x x x x x Frontière de décision fonction b(x)=0 telle que D(x-e) = D(x+e) prototypes XnXn X1X1 + + + + + + + + + + + + x x x x x x x x x x x x x x Rejet de distance XnXn X1X1 + + + + + + + + + + + + x x x x x x x x x x x x x x Rejet d’ambiguïté
70
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Buts de la RdF D : Algorithme de Reconnaissance des Formes Une forme x (vecteur forme des caractéristiques) C’est la forme « y=D(x) » Nous voulons un algorithme de RdF performant
71
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Coûts : matrice de confusion Vraie classe 1 2 3 … k … K Décision 1 2 3. L ? ?? Rejet (ambiguïté et distance) Si je décide l’action a l alors que la « vraie » classe est s k Combien coûte cette décision ?
72
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Coûts : matrice de confusion Vraie classe 1 2 3 … k … K Décision 1 2 3. L ? ?? Rejet (ambiguïté et distance) Si je décide l’action a l alors que la « vraie » classe est s k Combien coûte cette décision ? La réalité notre décision Malade pas malade On soigne on ne soigne pas 0 0
73
Les réseaux de neurones pour l’apprentissage ESSEC, le 28 Juin 2002 Coûts : matrice de confusion Vraie classe 1 2 3 … k … K Décision 1 2 3. L ? ?? Rejet (ambiguïté et distance) Sur les 1500 « cas » testés, voici les résultats de l’algorithmes de RdF La réalité notre décision Malade pas malade On soigne on ne soigne pas 14 1480
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.