La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Réseaux de Neurones Formels Commande de processus

Présentations similaires


Présentation au sujet: "Réseaux de Neurones Formels Commande de processus"— Transcription de la présentation:

1 Réseaux de Neurones Formels Commande de processus
Groupe Heuristiques et Systèmes complexes

2 Plan Introduction Axes de recherche sur les RNF au LGI2P
Applications à la commande de processus Perspectives

3 Introduction

4 Réseaux de neurones formels
Propriétés des réseaux de neurones formels : Approximation universelle Apprentissage Généralisation Neurone formel v : potentiel neuronal f : fonction dévaluation Réseau multicouche (statique) entrées sorties entrées sortie retards Réseau bouclé ... entrées Cartes Auto-organisatrices Kohonen

5 Approximation Approximation universelle Mais :
Un réseau statique à une couche cachée à fonction d'évaluation sigmoïde peut approcher toute fonction continue avec la précision désirée (Hornik[89],Cybenko[89]). Mais : Comment choisir les entrées ? Combien de neurones ? Comment calculer les coefficients synaptiques ?

6 Apprentissage Apprentissage C'est la phase de calcul des poids synaptiques à partir de données afin que le réseau associe convenablement entrées et sorties du réseau. Apprentissage supervisé : Le "professeur"connaît les sorties désirées et corrige le réseau en fonction des erreurs commises. Apprentissage par renforcement : Le "professeur" ne connaît pas les sorties désirées mais est capable de guider l'ajustement des poids par une forme de "critique". Apprentissage non supervisé : Pas de "professeur", le réseau s'auto-organise en fonction des données et d'une règle de modification des poids synaptiques.

7 Généralisation Généralisation : C'est la capacité du réseau à interpoler, c'est à dire à traiter correctement des données "proches" de celle rencontrées pendant l'apprentissage. Un réseau ne peut pas a priori extrapoler : Sa réponse à des entrées éloignées de celles présentées pendant l'apprentissage est a priori incorrecte.

8 Applications des RNF Approximation de fonction, Classification,
Traitement du signal, Modélisation et commande de processus non linéaires, Simulation et prédiction de phénomènes : physiques, économiques ...

9 Axes de recherche sur les RNF au LGI2P

10 Axes de recherche Architectures Apprentissage RNF Applications Outils
- Choix d’un modèle neuronal - Approches locales/globales - Apprentissage supervisé (réseaux bouclés) - Apprentissage par renforcement - Apprentissage non supervisé (voisinage g obs) - Classification, prédiction, commande - Systèmes des production, environnement, services, biotechnologies - Test de cartes neuronales : ZISC - Développement de logiciels

11 Travaux menés en laboratoire
Thèses : en cours Séparation de source de signaux présentant des retards purs Contribution a l’étude et au développement de modèles connexionnistes à apprentissage par renforcement : application à l’acquisition de comportements adaptatifs Commande par Réseaux de Neurones : Application au Contrôle d’un Préhenseur Pneumatique Approximation de variétés par réseaux auto-organisés Apprentissage par renforcement et systèmes distribués DEA : 5 Thèmes : Classification, Identification de processus dynamiques, Apprentissage par renforcement Travaux personnels d’étudiants (IR, stages…) : Thèmes : Apprentissage par renforcement (Hexapode), apprentissage de réseaux bouclés (modélisation de systèmes karstiques, méthodes des copies), reconnaissance de formes

12 Projets Projets Européens (ESPRIT) Projets Nationaux
QUETA [Esprit, ] : Quality Engineering Tools for Assembly and Small Batches Manufacturing Projets Nationaux IMRA [|99-00] : Détection d’obstacles par radar ultrasonore. SABATE[99] : classification de bouchons QUALIFLOW [00] : Conception d’un contrôleur de débit massique. Convention de collaboration IBM (carte ZISC) [00-…] Projets d ’étudiants en entreprise et encadrés par le LGI2P CVI : Maintenance conditionnelle : Diagnostic de défaut sur machine tournante SNR : Analyse qualité sur des roulements à bille [00-02]

13 Applications à la commande de processus

14 Apprentissage supervisé de Réseaux de neurones bouclés
Application à la commande en position d’un actionneur pneumatique Analyse et calcul de paramètres d’une chaîne logistique Metal bellows

15 Apprentissage supervisé de réseau bouclés : problème
d k Fonction de coût : + - s k s k-1 Fonction réalisée par le RNF : e1k S f e2k 1 Règle d’apprentissage (descente de gradient) avec Problème : le gradient à l’itération k dépend de toutes les valeurs de gradient passées. => complexité de calcul croissante

16 Méthode des ‘copies’ [ESPCI]
1 : Représenter le réseau sous forme canonique (tous les retours sont externes au réseau et présentent un retard unitaire) 2 : Ouvrir les boucles et dupliquer le réseau dans le temps sur une fenêtre temporelle de longueur fixe. 3 : Ajuster les coefficients par rétropropagation sur le réseau déplié et considéré comme statique Contribution du LGI2P : adaptation de la méthode au calcul de contrôleurs récursifs en commande de processus

17 Nt copies du réseau dans la fenêtre de Nt périodes d’échantillonnage
Méthode des copies e1k e2k e3k sk S f 1 Id sk-1 sk-2 1)Représentation canonique 2) Les boucles sont ouvertes et le réseau est dupliqué 3) Rétropropagation à travers la fenêtre temporelle Variantes selon initialisation f S e1k-Nt+1 e2k-Nt+1 e3k-Nt+1 Id sk-Nt sk-Nt-1 Copy Nt f S e1k-1 e2k-1 e3k-1 Id sk-2 sk-3 . Copy 2 sk sk-1 S f e1k e2k e3k Id sk-2 Copy 1 Nt copies du réseau dans la fenêtre de Nt périodes d’échantillonnage

18 Commande en position d’un actionneur pneumatique
Méthode : 1) Etude dynamique et choix des entrées/sorties. 2) Calcul d’un modèle neuronal de l’actionneur. 3) Choix d’une stratégie de commande et adaptation de la méthode des copies au calcul du contrôleur neuronal. Soufflets métalliques air 300 mm Système non linéaire car : - l’air est compressible, - phénomènes de turbulences dans la vanne ‘jet-pipe’.

19 Représentation sous forme canonique du bloc de commande
Commande par RNF Représentation sous forme canonique du bloc de commande Modèle neuronal de la pince Id: fonction identité uk-1 uk-2 yck yk yk-1 yk-2 yk+1 Id 1 period delay uk Contrôleur neuronal + - yd k+1 U n Modèle neuronal de l’actionneur Y - Yd + Schéma de commande + Yp U Pince contrôleur neuronal Y c

20 Test of the neural controller
Résultats Neural controller: ext. inputs: y k ,y k-1 k-2, y c state variables: u , u k-2 output: u 6 neurons in the hidden layer sampling period D : 0.1 s u Reference model output is y d 2 nd order system z=0,7; w0=2rd/s Learning algorithm applied to the global network SD: Nc=5,Nt=5 p Test of the neural controller uk: tension de vanne à l’instant k.D ydk: trajectoire désirée yk: sortie du modèle à k.D ypk: position réelle yck: position désirée

21 Chaîne logistique : unité de production
[P. Massotte] Processus d’assemblage Unité de production ORDRES PRODUITS Ordre de fabrication: fab Stock de sortie Stocks en entrés rth pth Commande d’approvisionnement: app Seuil de mis en fabrication : pth Nombre de composants pour fabriquer un produit final : num Capacité de production : cmax Temps de fabrication : tfab fab = Max[0, Min[cmax,(pth-stout)]] Niveau de stock en sortie : stout If (rth-stin) > app =Max[appmin, Min[appmax,(rth-stin)]] else app=0 Temps de réappro. : tapp Seuil de réapprovisionnement : rth Minimum d’appro : appmin Maximum d’appro : appmax Niveau de stock en entrée : stin Paramètres: rth, pth

22 Modèle neuronal d’une unité
delay appi k-1 fabi k 1 appj k-1 stinj k stout i k appj k-tapp - numij S rthj pthi stin k-1 -1 stout k-1 fabi k-1 fabi k-tfab stouti k fab i k stin k one block per part j app j k fabik = Max[0, Min[cmaxi,(pthi-stoutik)]] Modèle neuronal sous forme canonique If rthj-stinjk > appjk =Max[appminj, Min[appmaxj,(rthj-stinjk)]] else appjk =0

23 Ajustement des paramètres
Ajustement des paramètres pour minimiser le niveau de stock avec stin>3 and stout>0 Sk stin k = 100 p. Sk stout k = 109 p.

24 Apprentissage par renforcement
Acteur(s) ou Agent(s) Environnement a t s t r t+1 Action Situation Schéma de principe Le renforcement est déterminé par l’objectif à atteindre : définition ? Le but de l’acteur est de maximiser les récompenses à venir : estimation ? L’acteur apprend par processus essai/erreur : méthode ? Il doit résoudre un dilemme exploration/exploitation: compromis ? Cas des systèmes distribués et des systèmes dynamiques : qui et quand récompenser ?

25 Apprentissage de la marche d ’un robot hexapode
But de l’étude Montrer que grâce aux propriétés d ’apprentissage, il n ’est pas nécessaire de construire un modèle du robot. La coordination des mouvements est guidée par les informations renvoyées par l’environnement.

26 Architecture du réseau
[A. Johannet ] Les neurones calculent la probabilité d’effectuer une poussée L’action Si est binaire 1 : la patte exerce une poussée vers l ’arrière 0 : la patte est ramenée en position avant Les traitements sont distribués : un neurone par patte mais l’apprentissage est centralisé (même renforcement pour toutes les pattes).

27 Apprentissage centralisé
A chaque itération et pour tout neurone, on calcule <Si> = (+1).P(+1) + (-1).P(-1) ; <Si> qui représente la valeur de sortie moyenne. Selon un algorithme de pénalité/récompense : DCij = µ r (r.Si - <Si>).Ej si le dernier mouvement conduit à un succès (avance), le réseau est encouragé à le refaire (r = +1); si le dernier mouvement est un échec (chute, recul …), le réseau est encouragé à l’éviter (r = -1). Toutes les pattes reçoivent les mêmes pénalités/récompenses (apprentissage centralisé) -- R3R2R1L3L2L1 proaction Marche tripode des insectes Résultat :

28 Apprentissage de systèmes distribués
Chaque patte a sa propre fonction objectif, la marche devient un phénomène ‘ émergeant ’. Algorithme de pénalité/récompense de type Q-learning Chaque patte choisit depuis l’état s l’action a qui maximise le cumul des récompenses futures Q(s,a) En appliquant l’action a chaque patte passe d’un état s à un état s’ et reçoit le renforcement r => Q(s,a) inconnue est estimée au cours du processus essais/erreurs : A chaque nouvel essai d’une action a : Q(s,a)  Q(s,a) + a.(r+ maxbQ(s’,b) - Q(s,a)) R3R2R1L3L2L1 Résultats : * diverses marches hexapodes sont obtenues comme cycles attracteurs du système non linéaire bouclé, * il est possible de passer d’une marche à une autre par choix de la vitesse de déplacement (durée du mouvement de rétraction), * l’apprentissage est plus rapide si certains renforcements sont envoyés à toutes les pattes.

29 Approximation de variétés par réseaux de neurones auto-organisés
[Michael Aupetit ] Modèle discret Modèle linéaire Modèle non linéaire Position des sommets (Représentants) Topologie (TDI) CHL [Martinetz94] Interpolation

30 Placement des représentants
Principe : Quantification Vectorielle sans voisinage avec voisinage + convergence + distorsion gagnant voisin 1 voisin 2 Compétition donnée Adaptation apprentissage Taille voisinage n 1 Résultat : respect densité Quel voisinage utiliser => proposition voisinage g Observable

31 Noyaux de Voronoï j Principe: x Noyaux
But : approximer une fonction g par f Fonctions noyaux j dont l’étendue dépend de la position des voisins dans la triangulation Les paramètres de Ai et bi sont calculés par une méthode supervisée (minimisation de l’écart quadratique entre f et la fonction à approximer) Représentant intervenant dans l’approximation (c.a.d appartenant à Sx) x Noyaux j 1

32 Noyaux de Voronoï Induits en Approximation de Fonctions
Identification d’un préhenseur électropneumatique Résultat : EQM app. : 0.02, EQM test : 0.08 comparable MLP bouclé [Couturier97] 54 paramètres au lieu de 37. Volts uk yk 4 -4 Soufflets métalliques air 300 mm T = 0.1 s Unité y : 3mm/Volts Volts Ecart entre sortie observée et modèle 1 -1

33 Perspectives Architectures Règles d’apprentissage Applications
architectures modulaires approches locales Règles d’apprentissage application de la méthode des copies en apprentissage par renforcement travaux sur les règles d’apprentissage non supervisé (recrutement) Applications biotechnologie (tri de molécules) introduction de techniques d’apprentissage dans les approches heuristiques de résolution de problèmes d’optimisation combinatoire apprentissage par renforcement dans les systèmes multi-agents

34 Biblographie JOHANNET A., SARDA I., Goal-directed behaviours by renforcement learning , Neuro-computing, Elsevier, pp , 1999 COUTURIER, P. , JOHANNET, A. and BÉTEMPS, M. Neural Controllers: Tracking and Regulation of a Nonlinear Pneumatic Plant, International Journal of Knowledge-Based Intelligent Engineering Systems, October Vol 2, N° 4, p AUPETIT, M. , Lepetz, D. , Nemoz-Gaillard, M. , Couturier, P. , Massotte, P. , Réseaux de Neurones et Traitement de Données: la Notion de Voisinage g-Observable, Valgo 2001 (ISSN ), n. 1, March 2001 AUPETIT, M. , COUTURIER, P., MASSOTTE, P. , Induced Voronoï Kernels for Principal Manifolds Approximation , Workshop on Self-Organizing Maps (WSOM2001), Lincoln, England, June 13-15, 2001. AUPETIT, M. , COUTURIER, P., MASSOTTE, P. , Vector Quantization with g-Observable Neighbors , Workshop on Self-Organizing Maps (WSOM2001), Lincoln, England, June 13-15, 2001. COUTURIER P.,  Modelling and control of mecatronics systems using recurrent neural networks, MECATRONICS'01, Actes électroniques, Besançon, France, pp , octobre 2001.


Télécharger ppt "Réseaux de Neurones Formels Commande de processus"

Présentations similaires


Annonces Google