UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN

Slides:



Advertisements
Présentations similaires
Fabrice Lauri, François Charpillet, Daniel Szer
Advertisements

S. Meshoul & M. Batouche Equipe Vision, Laboratoire LIRE
Efficient Simplification of Point-Sampled Surfaces
Recherche de motifs par méthodes exploratoires: Comparaisons de performances et statistiques sur le score.
Introduction Pour concrétiser l’enseignement assisté par ordinateur
Conception de Programmes Evolutifs Pré Soutenance de TER Année Encadrants : Cathy Escazut et Michel Gautero Auteurs: Paul-Kenji Cahier Sylvain.
Conception de Programmes Evolutifs
Métaheuristiques pour l’optimisation combinatoire
Optimisation dans les télécommunications
Journée de Travail Groupe “Bermudes”
El-Djillali TALBI Doctorant systèmes industriels
Ordonnancement des mouvements de deux robots
Génération de colonnes
Optimisation globale non déterministe
Travail d’Etude et de Recherche :
L’optimisation par essaims De particules
Utilisation des tableaux
Ministère de l’enseignement supérieur et de la recherche scientifique Université des Sciences et de la Technologie d’Oran (Mohamed Boudiaf) Faculté des.
Partie 1: Notions & concepts
Optimisation par la méthode du recuit simulé
Application des algorithmes génétiques
5. Algorithme à estimation de distribution
CHALLENGE ROADEF 2001 Résolution par une métaheuristique à base de recherche à voisinage variable et propagation par contraintes Fabrice BUSCAYLET Fabrice.
Optimisation sans dérivées: De Nelder-Mead aux méthodess globales
Résolution des Équations Différentielles
Les Algorithmes Génétiques
Programmation linéaire
Concepts avancés en mathématiques et informatique appliquées
Optimisation en nombres entiers Recherche Opérationnelle GC-SIE.
La segmentation
Optimisation non linéaire sans contraintes
DEA Perception et Traitement de l’Information
Les Algorithmes Métaheuristques
4. Algorithme de Recuit Simulé
Méthode des Ensembles de Niveaux par Eléments Finis P1
Optimisation de formes dans l’industrie: méthodes de résolution et exemples Laurent Dumas (Maître de Conférences au Laboratoire Jacques-Louis Lions) Modélisation.
Optimisation dans les réseaux
Recherche Opérationnelle
Les Algorithmes de Tri Introduction Tri par Sélection
AIP PRIMECA des Pays de La Loire – 9 novembre 2006
Extraction Automatique de formes complexes : Application à la création de modèle anatomique de la tête J. Piovano, T. Papadopoulo Séminaire Odyssee 9,
Interprétation automatique
2. Algorithme de Recherche Tabou
Modélisation géométrique de base
RAPPEL Qu’est ce qu’une structure de contrôle itérative ?
Arbres et graphes.
les méthodes de recherche locale
Optimisation par les algorithmes génétiques
Optimisation par la méthode des abeilles
Travaux Pratiques Optimisation Combinatoire
Recherches locales et méta-heuristiques
Structures de données avancées : LH (Hachage linéaire) D. E ZEGOUR Institut National d ’Informatique.
Classification de données par l’algorithme FPSO-GA
TIPE Les dames chinoises
ASI 3 Méthodes numériques pour l’ingénieur
Présentation de l’équipe
Université Farhat Abbas_setif
Algorithmes génétiques en optimisation combinatoire
Présenté par : ABED Djemaa; BAKHOUIA Roqiya.
Optimisation des horaires de personnel
Optimisation par les algorithmes génétiques
ANNEE UNIVERSITAIRE :2010/2011
1 Logiciels de confection automatique d’horaires.
31/05/2007Projet Master 11 Présentation ludique de la recherche opérationnelle à la fête de la science Année universitaire 2006/2007 Sylvain FIX Julien.
Évolution de second ordre dans un algorithme évolutionnaire V. Lefort
Problème du Car Sequencing
Recuit simulé Une métaheuristique venue de la métallurgie.
Programmation par contraintes Réalisé par: WETCHA Chaima MOKDED Mohamed Ali FIA3-GL-AL 1 1.
Variable Neighborhood Descent (VND) Réalisée par Nadia Sassi Eya baghdedi AU
Transcription de la présentation:

UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN L’Optimisation par la méthode Kangourou Professeur responsable ::Mr BENYETTOU MOHAMED Présentée par: BOUCHETARA KARIMA

Sommaire 1- Introduction. 2-Métaheurstique. 2.1 Définition. 2.2 Classification. 3-Descente stochastique 3.1 Définition. 3.2 Principe. 3.3 Schéma général de la descente stochastique 3.4 Algorithmes basés sur la descente aléatoire 4-La méthode kangourou 4-1 Définition 4-2 Notion de voisinage 4-3 Principe 4-4 Algorithme 4-5 Exemple 4-6 Avantages et inconvénients. 5- Conclusion

1-Introduction En mathématiques, L’ optimisation combinatoire consiste à trouver la meilleure solution entre un nombre fini de choix. Autrement dit, à minimiser une fonction, avec ou sans contraintes, sur un ensemble fini de possibilités. un problème d'optimisation combinatoire se définit par l’ensemble de ses instances, souvent nombreuses. Ces problèmes sont facile à définir mais difficile à résoudre. Et pour résoudre ces problèmes, plusieurs méthodes ont été développées, on peut les classer dans deux grandes catégories: les méthodes exacte et les méthodes approchées, mais des problèmes ont été rencontrés au cours de ces méthodes, alors depuis une trentaine d’années une nouvelle génération de méthodes puissantes est apparue et qui s’intitule « Métaheuristiques ».

2-Métaheuristique 2-1 Définition Le mot métaheuristique est dérivé de la composition de deux mots grecs: - heuristique qui vient du verbe heuriskein (ευρισκειν) et qui signifie ‘trouver’ -méta qui est un suffixe signifiant ‘au-delà’, ‘dans un niveau supérieur’. Les métaheuristiques forment un ensemble de méthodes utilisées en recherche opérationnelle pour résoudre des problèmes d’optimisation réputés difficiles. C’est une nouvelle génération de méthodes approchées puissante. En 2006, le réseau Metaheuristics définit les métaheuristiques comme « un ensemble de concepts utilisés pour définir des méthodes heuristiques, pouvant être appliqués à une grande variété de problèmes. On peut voir la métaheuristiques comme une « boîte à outils » algorithmique, utilisable pour résoudre différents problèmes d’optimisation, et ne nécessitant que peu de modifications pour qu’elle puisse s’adapter à un problème particulier ».

2-Métaheuristique 2-2 Classification On peut distinguer deux grandes approches dans les métaheuristiques: les approches « trajectoire »: Ces méthodes partent d’une solution initiale (obtenue de façon exacte, ou par tirage aléatoire) et s’en éloignent progressivement, pour réaliser une trajectoire, un parcours progressif dans l’espace des solutions. Dans cette catégorie, se rangent :la méthode de descente, le recuit simulé, la méthode Tabou. Le terme de recherche locale est de plus en plus utilisé pour qualifier ces méthodes. les approches « population » (ou évolutionnaires) Elles consistent à travailler avec un ensemble de solutions simultanément, que l’on fait évoluer graduellement. L’utilisation de plusieurs solutions simultanément permet naturellement d’améliorer l’exploration de l’espace des configurations. Dans cette seconde catégorie, on recense : les algorithmes génétiques, les algorithmes par colonies de fourmi, l’optimisation par essaim particulaire…

3-Descente stochastique 3-1 Définition La recherche locale, appelée aussi la descente stochastique ou l’amélioration itérative ou même le Hill Climbing, représente une classe de méthodes heuristiques très anciennes. Les algorithmes de recherche locale sont largement utilisés dans les problèmes d'optimisation difficiles, tels que les problèmes informatiques (en particulier l'intelligence artificielle),mathématiques, en recherche opérationnelle, d'ingénierie et de bio-informatique.

3-Descente stochastique 3-2 Principe Le principe de la méthode de descente consiste à partir d’une solution s et à choisir une solution s’ dans un voisinage de s, telle que s’ améliore la recherche (généralement telle que f(s’) < f(s)). On peut décider soit d’examiner toutes les solutions du voisinage et prendre la meilleure de toutes (ou prendre la première trouvée), soit d’examiner un sous-ensemble du voisinage.  

3-Descente stochastique 3-3 Schéma général de la descente stochastique : Procédure descente_simple (solution initiale s) Répéter : Choisir s’ dans N(s) Si f(s’) < f(s) alors s ← s’ Jusqu’à ce que f(s’) ≥ f(s) Fin

3-Descente stochastique 3-4 Algorithmes basés sur la descente aléatoire La plupart des métaheuristiques à base de solution unique sont des améliorations de la méthode de descente aléatoire. Les plus simples sont des variantes de la descente aléatoire répétée, qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l’espace de recherche, et à choisir le meilleur point pour démarrer l’optimisation locale. Notre méthode Kangourou utilise en gros ce principe.

4- La méthode Kangourou 4-1 Définition La méthode Kangourou est une technique d’approximation fondée sur la descente stochastique qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l’espace de recherche Elle a été proposée par Gérard Fleury en 1993. Inspiré par la méthode du recuit simulé, mais avec une stratégie très différente de recherche.

4- La méthode Kangourou 4-2 Notion de voisinage Soit S un ensemble de solutions à un problème d’optimisation, et soit f la fonction objectif. Une structure de voisinage (ou tout simplement un voisinage) est une fonction N qui associe un sous-ensemble de S à toute solution sÎS. Une solution s’ N(s) est dite voisine de s. Une solution s Î S est un minimum local relativement à la structure de voisinage N si f(s) ≤ f(s’) s’ Î N(s).

4- La méthode Kangourou 4-3 Principe La méthode Kangourou est un algorithme itératif qui minimise une fonction objectif f(u). L’algorithme explore l'espace des solutions dans le voisinage N(u) en choisissant à chaque fois la meilleure solution voisine u* de la solution courante u. Soit u0 une solution admissible du problème d'optimisation. Par des déplacements successifs l'algorithme de Kangourou cherche une solution qui minimise la fonction f dans un voisinage de la solution courante. Si la solution ui est meilleure que la solution précédente, elle est mémorisée et une nouvelle solution est cherchée dans le même voisinage. Si la solution ui n'est pas meilleure que la solution précédente, l'algorithme trouve un autre voisinage par un saut. Après un nombre d'itérations un minimum local u* est trouvé. Ce minimum est plus ou moins proche du minimum global.

4- La méthode Kangourou La descente pour trouver un minimum local

4- La méthode Kangourou 4-4 Algorithme: x : état courant. On a les paramètres suivants: x : état courant. x* : meilleur état rencontré à l'itération courante. C : compteur d'itérations entre deux améliorations de la solution. A : le nombre maximal d'itérations sans l'amélioration de la solution courante f : la fonction objectif.

4- La méthode Kangourou Procédure de descente Répéter ns fois : 1 : Appliquer la mutation ɳ2 à la solution courante : x1 ← ɳ2(x) ; 2 : Si f (x1)= f (x) alors aller en 5 ; 3 : Si f (x1) < f (x*) alors Mettre à jour la meilleure solution rencontrée : x*← x1 ; 4 : Réinitialiser le compteur de stationnement C ← 0 ; 5 : Mettre à jour la solution courante : x ← x1 ; 6 : Incrémenter le compteur de stationnement : C ← C+1

4- La méthode Kangourou Procédure de saut 1 : Appliquer la mutation ɳ1 à la solution courante : x1← ɳ1(x) ; 2 : Si f (x1) > f(x) alors aller en 5 ; 3 : Si f (x1) <f(x) alors C← 0 ; 4 : x ← x1 ; 5 : C ← C+1 ;

4- La méthode Kangourou ɳ1: mutation uniforme locale. ɳ1 (xi)= xi +(2 ɣ -1)p, où p est obtenu à partir d’une distribution uniforme sur [0,1] et p est un nombre réel (0 < p<1), souvent appelé taille maximum du pas. ɳ2: mutation uniforme globale. ɳ2(xi)= ɣ, où ɣ est obtenu à partir d’une distribution uniforme sur [0,1]. La mutation ɳ2 vérifie bien la propriété d’accessibilité, puisqu’à partir d’un point quelconque de l’espace de recherche [0,1]N, il est possible d’atteindre tout autre point de cet espace.

4- La méthode Kangourou L’algorithme Kangourou est défini comme suit : 1 : Initialiser la solution courante : x ← x0 ; 2 : Initialiser la meilleure solution rencontrée : x*←x0 ; // *une meilleure solution x* est recherché afin de minimiser la fonction objectif f *// 3 : Initialiser le compteur de stationnement : C← 1 ; 4 : Si C < A alors // *descente stochastique *// exécuter la procédure de descente : x ← descente (x, C) ; Sinon exécuter la procédure de saut : x ← saut (x) ; 5 : Si x est meilleure que x* alors x* ← x ; 6 : Si le critère d’arrêt est atteint alors aller en 4 ; fin de l’algorithme.

4- La méthode Kangourou Explication Après une descente aléatoire avec une mutation ɳ1 , si la valeur de la fonction objectif n’a pas changé depuis A itérations, plusieurs sauts aléatoires consécutifs sont effectués en utilisant une mutation ɳ2. La mutation ɳ2 n’est pas nécessairement la même que ɳ1 , mais doit respecter la propriété d’accessibilité, c’est-à-dire que pour tout couple de points (x, y) de l’espace des paramètres, il doit être possible d’atteindre y à partir de x, en utilisant une suite finie de mutations de type ɳ2 .

4- La méthode Kangourou Les deux mutations ɳ1 et ɳ2 sont utilisées avec des objectifs différents. ɳ1 permet de faire un déplacement local (c’est-à-dire, vers un point très proche de la solution courante), alors que ɳ2 est utilisée pour effectuer un saut vers un autre bassin d’attraction, pour sortir d’un optimum local La première et la deuxième mutation ne sont pas nécessairement les mêmes, mais doivent respecter la propriété d’accessibilité de l’algorithme.

4- La méthode Kangourou 4-5 Exemple de la méthode Kangourou Le désassemblage d'une porte du modèle Peugeot 106 Dans sa thèse, [DUTA ,2006] a appliqué l'algorithme du kangourou sur désassemblage d'une porte du modèle Peugeot 106. Les composants et les temps de désassemblage sont donnés.

4- La méthode Kangourou Les composants d'une porte Peugeot 106

4- La méthode Kangourou Le tableau représentant Les opérations principales de désassemblage de la porte est comme suit :

4- La méthode Kangourou Nous avons ignoré les opérations annexes comme la prise ou le positionnement d'un outil. Hypothèses : Il s'agit d'un seul type de produit (Peugeot 106) La période de planification est H = une semaine Le nombre de produits de même type à désassembler est constant S=40 La fonction à optimiser est une fonction d'équilibrage F. Les temps de désassemblage pour les autres composants sont connus. Le temps de cycle est connu et égale à 3600 s pour le désassemblage de la voiture entière. Il y deux postes mixtes où le désassemblage de la porte est réalisé L'exécution de l'algorithme du [Duta, 2006] donne la valeur minimale de la fonction F de 260 s, ce qui est un bon résultat.

4- La méthode Kangourou 4-6 Avantages et inconvénients: Elle présente l’avantage de ne pas perdre l’information relative aux optimaux locaux rencontrés. Les résultats obtenus par la méthode kangourou sont de bonnes qualités avec un temps de calcul modéré. Le fait d’effectuer des sauts permet à l’algorithme kangourou de sortir d’une vallée c’est à dire d’un minimum local en sautant les barrières de potentiel. Il présente plusieurs inconvénients comme le nombre de stationnements et de sauts nécessaire pour la recherche global.

5-Conclusion La méthode Kangourou offre une solution par une descente stochastique et une transition dans le voisinage de l'état actuel pour trouver une meilleure solution de la solution courante. L’intérêt de cette méthode est qu’elle est facile à mettre en œuvre, elle peut être couplée sans difficulté avec un modèle pour l’évaluation des performances et on dispose a tout instant d’une solution réalisable. L’algorithme du kangourou a beaucoup d’avantages car il permet la recherche globale ainsi que le réglage de paramètres du recuit simulé.

Références Luminita DUTA ; « Contribution A L'etude De La Conduite Des Systemes De Desassemblage » ; thèse de doctorat en Automatique et Informatique; Université Franche-Comte Du Besancon ; soutenue le 22 septembre 2006 Mémoire Les métaheuristiques en optimisation combinatoire présenté en vue d’obtenir l’examen probatoire en informatique par Baptiste Autin le 9 mai 2006. Jin-Kao HAO, Philippe GALINIER, Michel HABIB ; « Méthaheuristiques pour l’optimisation combinatoire et l’affectation sous contraintes »; Revue d’Intelligence Artificielle ;1999 http://fr.wikipedia.org/wiki/Recherche_locale_(optimisation)  

Merci pour votre attention