El-Djillali TALBI Doctorant systèmes industriels

Slides:



Advertisements
Présentations similaires
Automatisation du Scale Up
Advertisements

Soutenance du stage de DEA.
Arnaud Thiry Julien Mellano INSA de Rouen - GM4
PLAN I / OBJECTIFS II/ OBSERVATIONS FAITES LORS DE LA PRECEDENTE SEANCE III/CARACTERISATION DES ANTENNES IV/CONCLUSION V/PERSPECTIVES.
Baptiste ARNAULT, Manel ZERELLI, Thierry SORIANO
Co-directeurs : Alexandre DOLGUI et Farouk YALAOUI
Métaheuristiques pour l’optimisation combinatoire
Planification d'expériences et analyse d'incertitudes pour les gros codes numériques : approches stochastiques Toulouse, 2 Février 2006 Optimisation multi-objectifs.
1 Vers la découverte de nouvelles modalités sensori-motrices. Encadrants : Pierre Bessière Anne Spalanzani Pierre Dangauthier DEA I.V.R. 24 Juin 2003 Sélection.
Optimisation dans les télécommunications
simulateur de réseau de machines UML connectées par WiFi mode ad-hoc
Journée de Travail Groupe “Bermudes”
Ordonnancement des mouvements de deux robots
Plan 1. Problème étudié : Job Shop 1.1. Données et contraintes
Modélisation d’un atelier de forge par un Job-Shop flexible
Influence de la distribution des temps opératoires sur le résultat de l’ordonnancement Chérif Sadfi Laboratoire Gestion Industrielle, Logistique et Conception.
Modélisation des systèmes non linéaires par des SIFs
Recherche heuristique de similitudes dans les séquences dADN École Jeunes Chercheurs en Algorithmique et Calcul Formel Laurent Noé
Travail d’Etude et de Recherche :
L’optimisation par essaims De particules
Sélection automatique d’index et de vues matérialisées
Y. Caseau 22/04/ Challenge ROADEF: Combinaison de Propagation de Contraintes et de Méta-Heuristiques Yves Caseau & all Bouygues – e-lab Francoro.
LES OUTILS POUR LA GOUVERNANCE DES DONNÉES LA PASSION DES DONNÉES LA PRÉCISION DES RÉSULTATS.
Problèmes d’ordonnancement
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
Application des algorithmes génétiques
Les Systèmes Multi-Agents pour la Gestion de Production
Aide à la décision et à la négociation dans un problème de gestion de production distribuée Jean-Pierre Camalot et Patrick Esquirol LAAS-CNRS 7, avenue.
DEA Intelligence Artificielle et Optimisation Combinatoire
Commande par algorithme génétique
Séminaire de lobjectif « forage et production » Beaune, les 26,27 et 28 Avril 2000 Outils danalyse statistiques « programmation par lexemple » S. Canu,
Parallel Cooperative Optimization Research Group
Les réseaux de neurones
GPA 750 Chapitre 3 : Les méthodes d’ordonnancement génériques
GPA750 Les ateliers multigammes Chapitre 5
Module 2 : Préparation de l'analyse des performances du serveur
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
Détection du meilleur format de compression pour une matrice creuse dans un environnement parallèle hétérogène Olfa HAMDI-LARBI.
Ordonnancement de tâches
Plan de la présentation
Mesure des performances WEB en introduisant un contrôle dadmission.
Présenté par : Attia Hamza Merzouk Abdelkrim 2003/2004
Réseau bayésien à la détection de fraude
les méthodes de recherche locale
Module 8 : Surveillance des performances de SQL Server
La Planification de Réseaux Locaux sans Fils
Réalisé par : Mr IRZIM Hédi Mr JRAD Firas
Pr ZEGOUR DJAMEL EDDINE Ecole Supérieure d’Informatique (ESI)
Optimisation par la méthode des abeilles
Algorithmes Branch & Bound
Fast and Furious Decision Tree Induction
Travaux Pratiques Optimisation Combinatoire
Prototypage Rapide Du modèle numérique au modèle physique
LIRMM, MONTPELLIER, FRANCE FTFC 2003 Définition d’une métrique d’insertion de buffers X. Michel, A. Verle N. Azémard, P. Maurine, D. Auvergne Paris, France.
Recherches locales et méta-heuristiques
Structures de données avancées : LH (Hachage linéaire) D. E ZEGOUR Institut National d ’Informatique.
Classification de données par l’algorithme FPSO-GA
Optimisation pour la Conception de Systèmes Embarqués
Présentation de l’équipe
Décision incertaine et logistique : Grille typologique
Algorithmes génétiques en optimisation combinatoire
Présenté par : ABED Djemaa; BAKHOUIA Roqiya.
20/06/2015propagation de signatures lexicales dans le graphe du Web 1 Propagation de signatures lexicales dans le graphe du Web M. Bouklit M. Lafourcade.
ANNEE UNIVERSITAIRE :2010/2011
1 Logiciels de confection automatique d’horaires.
Problème du Car Sequencing
Principes des grilles d’évaluation
Proposition d’une métaheuristique pour le
Les étapes de l’algorithme choisi -Calcul des fitness -Mélange si stagnation -Sélection quasi-élitiste -Croisement -Mutation.
PROJET DE SESSION DANS LE CADRE DU COURS: SCG Réalisation d’applications en SIG PRÉSENTÉ PAR: Marie-Andrée Levesque 18 AVRIL 2006.
Transcription de la présentation:

El-Djillali TALBI Doctorant systèmes industriels Journée Bermudes / Métaheuristiques 7 février 2003 Méta-heuristiques pour le paramétrage automatique d’un logiciel d’ordonnancement industriel El-Djillali TALBI Doctorant systèmes industriels

Agenda Introduction ORTEMS scheduler ORTEMS optimizer Approches d’optimisation Exemples Conclusions Perspectives

Introduction Le problème Indic. 2 Paramètres Indicateurs Indic. 3 Indic. 1 Logiciel d ’ordonnancement Param. 1 Param. 2 Param. 3 Grand nombre de paramètres à régler Ordonnancement très sensible aux valeurs des paramètres Plusieurs objectifs ? Comment sélectionner et régler les paramètres par rapport aux objectifs de la production

Introduction ORTEMS scheduler Paramètres Indicateurs ORTEMS scheduler Paramètres 52 paramètres prédéfinis à chaque paramètre on peut spécifier une valeur différente par machine possibilité de créer de nouveaux paramètres Indicateurs 23 indicateurs de performance personalisables (par période, par OF, par machine, ...). Possibilité de créer de nouveaux indicateurs

Introduction Objectifs Concevoir et développer un environnement d’aide : à la sélection de paramètres pertinents à l’entrée d’un système au réglage de leurs valeurs de manière à optimiser les indicateurs de performance à la sortie du système Appliquer à des cas industriels réels

Introduction Approches Méthodes statistiques plans d’expérience analyse de données Systèmes à base de connaissance systèmes experts extraction de connaissances à partir de données réseaux de neurone Méthodes d ’optimisation meta-heuristiques méthodologie des surfaces de réponse

ORTEMS scheduler

ORTEMS Scheduler Résolution de conflit par filtrage Conflit d ’opérations (ou de machines) Critères d ’ordo (ou de placement) Choix

ORTEMS Scheduler Résolution de conflit par compromis Poids Critère d ’ordo (ou de placement) Conflit d ’opérations (ou de machines) Choix ? Sélectionner les critères à utiliser Déterminer les valeurs des poids

ORTEMS OPTIMIZER Architecture XML/SOAP Application Sever E-SCM Server (Java) OPTIMIZER (Java) XML/SOAP APIs Moteur d ’ordo. XML/SOAP Optimizer Base de données Profiler (Java) SQL XML Base de données technique

ORTEMS OPTIMIZER Optimisation en boîte noire Valeurs des paramètres Evaluer la fonction objectif Moteur d ’ordo. Indicateurs Recherche de nouvelles solutions ORTEMS scheduler

ORTEMS optimizer Fonction objectif Somme pondérée des indicateurs de performance de l’ordonnancement pi : poids fi(x) : ième indicateur de performance fi(xi0) : valeur initiale du ième indicateur fi* : borne inférieur pour le ième indicateur Avantage: simplicité Inconvénients: difficulté de déterminer les valeurs des poids résultats dépendant de la méthode de normalisation utilisée

ORTEMS OPTIMIZER Etapes Début Moteur d ’ordonnancement Créer un nouveau réglage Charger un réglage Configuration et définition des objectifs Algorithme d ’optimisation Validation Visualisation des résultats Sauvegarder le réglage Fin

ORTEMS optimizer Solution

ORTEMS optimizer Mode autonome Collaborateur Tâche de fond OPTIMIZER Planificateur Encours Encours Valeurs des paramètres BDT Valeurs des paramètres

Approches d ’optimisation Principales difficultés Problème multicritère Situation en boîte noire Fonctions objectifs coûteuses Grande dimentionalité Environnement dynamique Paramètres à valeurs continues

Approches d’optimisation Se base sur l’utilisation de meta-heuristiques Echantillonage aléatoire Descente aléatoire (multistart, kangourou, …etc) Recuit simulé Algorithmes génétiques

Approches d’optimisation Sélection de paramètres Sélection à priori (avant optimisation) utilisation de l’expérience pour réduire l’espace des paramètres Sélection à postériori (après optimisation) élimination des paramètres inutiles Sélection au cours de l’optimisation Sélection aléatoire séquentielle (en arrière et en avant) Sélection par échantillonage aléatoire Sélection par opérateurs génétiques

Approches d’optimisation Descente aléatoire (1) Descente aléatoire + selection aléatoire en arrière codage reel deux opérateurs de mutation : m1 : sélectioner d’un paramètre quelconque et changer sa valeur aléatoirement (Exchange and linear move) m2 : éliminer un paramètre choisis aléatoirement Choix de la mutation à appliquer : i : nombre de paramètres sélectionnés dans la solution c > 0, ts entier > 0 Appliquer une sélection aléatoire en arrière à la fin

Approches d’optimisation Descente aléatoire (2) Descente aléatoire + selection par échantillonage aléatoire codage reel solutions initiales sélectionnées par echantillonage aléatoire système de voisinages : Les paramètres sélectionnés sont les seuls à être changés à chaque descente aléatoire

Approches d’optimisation algorithmes génétiques (1) Codage réel Population initiale générée avec un nombre fixe de paramètres sélectionnés Deux opérateurs de mutation: changer aléatoirement les valeurs de paramètres sélectionnés ajouter et éliminer le même nombre de paramètres “recombination” discrête opérateur de sélection de solutions dans la population : ranking selection

Exemple 1 Compagnie travaillant dans la soutraitance en industrie aérospatiale. 152 machines et 8557 opérations RCGA (40 taille population, 40 crossover, Pm 0.2, Nbre parm. Pop. init. 8) Nombre de paramètres dans la solution obtenus (450 itérations, 15 heures de calcul : PIII 660 mhz) : 9 Après une sélection aléatoire en arrière : 3 paramètres ont été retenus.

Exemple 1 Fonction objectif pour la solution courante Nombre de paramètres sélectionnés

Exemple 2 Compagnie de parfums et arômes. 136 machines et 1329 opérations à ordonnancer. Nombre de paramètres sélectionnés 10 sur 52.

Exemple 2 Robustesse de la solution

Conclusions Point positif : Limites : Résultats spectaculaires dans certains cas Intérêt d ’utiliser des méta-heuristiques pour automatiser la configuration des logiciels d ’ordonnancement Limites : temps d ’ordo. doit être faible (pas plus d ’une dizaine de minutes) Non robustesse de la solution Résultats de l ’ordo limités dans beaucoup de situations Indicateurs difficiles à spécifier dans certains cas

Application à d ’autres types de paramètres : Perspectives (1) Application à d ’autres types de paramètres : action sur le planning (voie très prometteuse) paramètres du SRP …etc Sélection de paramètres : opérateurs génétiques permettant la sélection population based instance learning tests statistiques sur les solutions visitées fast random hill climbing méthode taboo Parallélisation de l ’optimisation.

Perspectives (2) Accélérer l ’ordonnancement ( ordo. rapide et ordo. Partiel). méthodologie des surfaces de réponses Pareto optimisation Robustesse de la solution