La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN

Présentations similaires


Présentation au sujet: "UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN"— Transcription de la présentation:

1 UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
L’Optimisation par la méthode Kangourou Professeur responsable ::Mr BENYETTOU MOHAMED Présentée par: BOUCHETARA KARIMA

2 Sommaire 1- Introduction. 2-Métaheurstique. 2.1 Définition.
2.2 Classification. 3-Descente stochastique 3.1 Définition. 3.2 Principe. 3.3 Schéma général de la descente stochastique 3.4 Algorithmes basés sur la descente aléatoire 4-La méthode kangourou 4-1 Définition 4-2 Notion de voisinage 4-3 Principe 4-4 Algorithme 4-5 Exemple 4-6 Avantages et inconvénients. 5- Conclusion

3 1-Introduction En mathématiques, L’ optimisation combinatoire consiste à trouver la meilleure solution entre un nombre fini de choix. Autrement dit, à minimiser une fonction, avec ou sans contraintes, sur un ensemble fini de possibilités. un problème d'optimisation combinatoire se définit par l’ensemble de ses instances, souvent nombreuses. Ces problèmes sont facile à définir mais difficile à résoudre. Et pour résoudre ces problèmes, plusieurs méthodes ont été développées, on peut les classer dans deux grandes catégories: les méthodes exacte et les méthodes approchées, mais des problèmes ont été rencontrés au cours de ces méthodes, alors depuis une trentaine d’années une nouvelle génération de méthodes puissantes est apparue et qui s’intitule « Métaheuristiques ».

4 2-Métaheuristique 2-1 Définition Le mot métaheuristique est dérivé de la composition de deux mots grecs: - heuristique qui vient du verbe heuriskein (ευρισκειν) et qui signifie ‘trouver’ -méta qui est un suffixe signifiant ‘au-delà’, ‘dans un niveau supérieur’. Les métaheuristiques forment un ensemble de méthodes utilisées en recherche opérationnelle pour résoudre des problèmes d’optimisation réputés difficiles. C’est une nouvelle génération de méthodes approchées puissante. En 2006, le réseau Metaheuristics définit les métaheuristiques comme « un ensemble de concepts utilisés pour définir des méthodes heuristiques, pouvant être appliqués à une grande variété de problèmes. On peut voir la métaheuristiques comme une « boîte à outils » algorithmique, utilisable pour résoudre différents problèmes d’optimisation, et ne nécessitant que peu de modifications pour qu’elle puisse s’adapter à un problème particulier ».

5 2-Métaheuristique 2-2 Classification
On peut distinguer deux grandes approches dans les métaheuristiques: les approches « trajectoire »: Ces méthodes partent d’une solution initiale (obtenue de façon exacte, ou par tirage aléatoire) et s’en éloignent progressivement, pour réaliser une trajectoire, un parcours progressif dans l’espace des solutions. Dans cette catégorie, se rangent :la méthode de descente, le recuit simulé, la méthode Tabou. Le terme de recherche locale est de plus en plus utilisé pour qualifier ces méthodes. les approches « population » (ou évolutionnaires) Elles consistent à travailler avec un ensemble de solutions simultanément, que l’on fait évoluer graduellement. L’utilisation de plusieurs solutions simultanément permet naturellement d’améliorer l’exploration de l’espace des configurations. Dans cette seconde catégorie, on recense : les algorithmes génétiques, les algorithmes par colonies de fourmi, l’optimisation par essaim particulaire…

6 3-Descente stochastique
3-1 Définition La recherche locale, appelée aussi la descente stochastique ou l’amélioration itérative ou même le Hill Climbing, représente une classe de méthodes heuristiques très anciennes. Les algorithmes de recherche locale sont largement utilisés dans les problèmes d'optimisation difficiles, tels que les problèmes informatiques (en particulier l'intelligence artificielle),mathématiques, en recherche opérationnelle, d'ingénierie et de bio-informatique.

7 3-Descente stochastique
3-2 Principe Le principe de la méthode de descente consiste à partir d’une solution s et à choisir une solution s’ dans un voisinage de s, telle que s’ améliore la recherche (généralement telle que f(s’) < f(s)). On peut décider soit d’examiner toutes les solutions du voisinage et prendre la meilleure de toutes (ou prendre la première trouvée), soit d’examiner un sous-ensemble du voisinage.

8 3-Descente stochastique
3-3 Schéma général de la descente stochastique : Procédure descente_simple (solution initiale s) Répéter : Choisir s’ dans N(s) Si f(s’) < f(s) alors s ← s’ Jusqu’à ce que f(s’) ≥ f(s) Fin

9 3-Descente stochastique
3-4 Algorithmes basés sur la descente aléatoire La plupart des métaheuristiques à base de solution unique sont des améliorations de la méthode de descente aléatoire. Les plus simples sont des variantes de la descente aléatoire répétée, qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l’espace de recherche, et à choisir le meilleur point pour démarrer l’optimisation locale. Notre méthode Kangourou utilise en gros ce principe.

10 4- La méthode Kangourou 4-1 Définition
La méthode Kangourou est une technique d’approximation fondée sur la descente stochastique qui consiste à faire une descente aléatoire à partir de plusieurs points choisis de façon aléatoire dans l’espace de recherche Elle a été proposée par Gérard Fleury en Inspiré par la méthode du recuit simulé, mais avec une stratégie très différente de recherche.

11 4- La méthode Kangourou 4-2 Notion de voisinage
Soit S un ensemble de solutions à un problème d’optimisation, et soit f la fonction objectif. Une structure de voisinage (ou tout simplement un voisinage) est une fonction N qui associe un sous-ensemble de S à toute solution sÎS. Une solution s’ N(s) est dite voisine de s. Une solution s Î S est un minimum local relativement à la structure de voisinage N si f(s) ≤ f(s’) s’ Î N(s).

12 4- La méthode Kangourou 4-3 Principe
La méthode Kangourou est un algorithme itératif qui minimise une fonction objectif f(u). L’algorithme explore l'espace des solutions dans le voisinage N(u) en choisissant à chaque fois la meilleure solution voisine u* de la solution courante u. Soit u0 une solution admissible du problème d'optimisation. Par des déplacements successifs l'algorithme de Kangourou cherche une solution qui minimise la fonction f dans un voisinage de la solution courante. Si la solution ui est meilleure que la solution précédente, elle est mémorisée et une nouvelle solution est cherchée dans le même voisinage. Si la solution ui n'est pas meilleure que la solution précédente, l'algorithme trouve un autre voisinage par un saut. Après un nombre d'itérations un minimum local u* est trouvé. Ce minimum est plus ou moins proche du minimum global.

13 4- La méthode Kangourou La descente pour trouver un minimum local

14 4- La méthode Kangourou 4-4 Algorithme: x : état courant.
On a les paramètres suivants: x : état courant. x* : meilleur état rencontré à l'itération courante. C : compteur d'itérations entre deux améliorations de la solution. A : le nombre maximal d'itérations sans l'amélioration de la solution courante f : la fonction objectif.

15 4- La méthode Kangourou Procédure de descente Répéter ns fois :
1 : Appliquer la mutation ɳ2 à la solution courante : x1 ← ɳ2(x) ; 2 : Si f (x1)= f (x) alors aller en 5 ; 3 : Si f (x1) < f (x*) alors Mettre à jour la meilleure solution rencontrée : x*← x1 ; 4 : Réinitialiser le compteur de stationnement C ← 0 ; 5 : Mettre à jour la solution courante : x ← x1 ; 6 : Incrémenter le compteur de stationnement : C ← C+1

16 4- La méthode Kangourou Procédure de saut 1 : Appliquer la mutation ɳ1 à la solution courante : x1← ɳ1(x) ; 2 : Si f (x1) > f(x) alors aller en 5 ; 3 : Si f (x1) <f(x) alors C← 0 ; 4 : x ← x1 ; 5 : C ← C+1 ;

17 4- La méthode Kangourou ɳ1: mutation uniforme locale. ɳ1 (xi)= xi +(2 ɣ -1)p, où p est obtenu à partir d’une distribution uniforme sur [0,1] et p est un nombre réel (0 < p<1), souvent appelé taille maximum du pas. ɳ2: mutation uniforme globale. ɳ2(xi)= ɣ, où ɣ est obtenu à partir d’une distribution uniforme sur [0,1]. La mutation ɳ2 vérifie bien la propriété d’accessibilité, puisqu’à partir d’un point quelconque de l’espace de recherche [0,1]N, il est possible d’atteindre tout autre point de cet espace.

18 4- La méthode Kangourou L’algorithme Kangourou est défini comme suit : 1 : Initialiser la solution courante : x ← x0 ; 2 : Initialiser la meilleure solution rencontrée : x*←x0 ; // *une meilleure solution x* est recherché afin de minimiser la fonction objectif f *// 3 : Initialiser le compteur de stationnement : C← 1 ; 4 : Si C < A alors // *descente stochastique *// exécuter la procédure de descente : x ← descente (x, C) ; Sinon exécuter la procédure de saut : x ← saut (x) ; 5 : Si x est meilleure que x* alors x* ← x ; 6 : Si le critère d’arrêt est atteint alors aller en 4 ; fin de l’algorithme.

19 4- La méthode Kangourou Explication
Après une descente aléatoire avec une mutation ɳ1 , si la valeur de la fonction objectif n’a pas changé depuis A itérations, plusieurs sauts aléatoires consécutifs sont effectués en utilisant une mutation ɳ2. La mutation ɳ2 n’est pas nécessairement la même que ɳ1 , mais doit respecter la propriété d’accessibilité, c’est-à-dire que pour tout couple de points (x, y) de l’espace des paramètres, il doit être possible d’atteindre y à partir de x, en utilisant une suite finie de mutations de type ɳ2 .

20 4- La méthode Kangourou Les deux mutations ɳ1 et ɳ2 sont utilisées avec des objectifs différents. ɳ1 permet de faire un déplacement local (c’est-à-dire, vers un point très proche de la solution courante), alors que ɳ2 est utilisée pour effectuer un saut vers un autre bassin d’attraction, pour sortir d’un optimum local La première et la deuxième mutation ne sont pas nécessairement les mêmes, mais doivent respecter la propriété d’accessibilité de l’algorithme.

21 4- La méthode Kangourou 4-5 Exemple de la méthode Kangourou Le désassemblage d'une porte du modèle Peugeot 106 Dans sa thèse, [DUTA ,2006] a appliqué l'algorithme du kangourou sur désassemblage d'une porte du modèle Peugeot 106. Les composants et les temps de désassemblage sont donnés.

22 4- La méthode Kangourou Les composants d'une porte Peugeot 106

23 4- La méthode Kangourou Le tableau représentant Les opérations principales de désassemblage de la porte est comme suit :

24 4- La méthode Kangourou Nous avons ignoré les opérations annexes comme la prise ou le positionnement d'un outil. Hypothèses : Il s'agit d'un seul type de produit (Peugeot 106) La période de planification est H = une semaine Le nombre de produits de même type à désassembler est constant S=40 La fonction à optimiser est une fonction d'équilibrage F. Les temps de désassemblage pour les autres composants sont connus. Le temps de cycle est connu et égale à 3600 s pour le désassemblage de la voiture entière. Il y deux postes mixtes où le désassemblage de la porte est réalisé L'exécution de l'algorithme du [Duta, 2006] donne la valeur minimale de la fonction F de 260 s, ce qui est un bon résultat.

25 4- La méthode Kangourou 4-6 Avantages et inconvénients: Elle présente l’avantage de ne pas perdre l’information relative aux optimaux locaux rencontrés. Les résultats obtenus par la méthode kangourou sont de bonnes qualités avec un temps de calcul modéré. Le fait d’effectuer des sauts permet à l’algorithme kangourou de sortir d’une vallée c’est à dire d’un minimum local en sautant les barrières de potentiel. Il présente plusieurs inconvénients comme le nombre de stationnements et de sauts nécessaire pour la recherche global.

26 5-Conclusion La méthode Kangourou offre une solution par une descente stochastique et une transition dans le voisinage de l'état actuel pour trouver une meilleure solution de la solution courante. L’intérêt de cette méthode est qu’elle est facile à mettre en œuvre, elle peut être couplée sans difficulté avec un modèle pour l’évaluation des performances et on dispose a tout instant d’une solution réalisable. L’algorithme du kangourou a beaucoup d’avantages car il permet la recherche globale ainsi que le réglage de paramètres du recuit simulé.

27 Références Luminita DUTA ; « Contribution A L'etude De La Conduite Des Systemes De Desassemblage » ; thèse de doctorat en Automatique et Informatique; Université Franche-Comte Du Besancon ; soutenue le 22 septembre 2006 Mémoire Les métaheuristiques en optimisation combinatoire présenté en vue d’obtenir l’examen probatoire en informatique par Baptiste Autin le 9 mai 2006. Jin-Kao HAO, Philippe GALINIER, Michel HABIB ; « Méthaheuristiques pour l’optimisation combinatoire et l’affectation sous contraintes »; Revue d’Intelligence Artificielle ;1999

28 Merci pour votre attention


Télécharger ppt "UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN"

Présentations similaires


Annonces Google