Métaheuristiques pour l’optimisation combinatoire Sébastien Verel Manuel Clergue.

Slides:



Advertisements
Présentations similaires
Champs de Markov en Vision par Ordinateur
Advertisements

Métaheuristiques pour l’optimisation combinatoire
Optimisation dans les télécommunications
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
Heuristiques A. Introduction B. Recherche d ’une branche
4. Algorithme de Recuit Simulé
Algorithmes d ’approximation
les méthodes de recherche locale
Recherches locales et méta-heuristiques
Algorithmes génétiques en optimisation combinatoire
ANNEE UNIVERSITAIRE :2010/2011
Recuit simulé Une métaheuristique venue de la métallurgie.
Pierre Collet : Intelligence Artificielle 1 Optimisation Stochastique Avancée Pierre Collet Laboratoire des Sciences de l’Image, de l’Informatique et de.
1 UE Intro Opti L3 INFO UPSud Programmation linéaire en variables entières (ou mixtes) : résolution approchée par heuristique
PRESENTE PAR: KASHAMA LUBEMBE Dieudonné.
Proposition d’une heuristique efficace pour l’ordonnancement des machines parallèles 1 Benjamin Vincent Nikolay Tchernev Christophe Duhamel Libo Ren 21e.
Séquence 1 : Problème posé : A quoi sert une éolienne et de quels éléments est elle constituée ? énergie renouvelable classe de 4° Analyse de l'OT.
Outils de Recherche Opérationnelle en Génie MTH 8414A
Outils de Recherche opérationnelle en Génie MTH 8414
ECOLE CENTRALE DE LILLE
Analyse, Classification,Indexation des Données ACID
Optimisation combinatoire
Les Instructions Itératives (Les Boucles)
Calculs de temps de trajets
Algorithmique Avancée et Complexité Chap2:Complexité et Optimalité
Loi Normale (Laplace-Gauss)
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap5: Les méthodes de résolution exactes.
Master Réseaux et Systèmes Distribués (RSD)
Techniques d’Optimisation Chapitre 2: Problème de flôt
Algorithmiques Abdelbasset KABOU
S. Briot1 and V. Arakelian2 1 IRCCyN – Nantes 2 INSA – Rennes
Échantillonnage non-aléatoire
Cyber-Sphinx Séance 2.
La Conclusion.
Optimisation et Recherche Opérationnelle
MTH 6414A Exemple de recherche avec taboux
Techniques d’Optimisation Chapitre 3: Programmation en 0-1 (bivalente)
Technologies de l’intelligence d’affaires Séance 11
Les répétitions en tandem et l ’étude des génomes
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap7: Les méthodes de résolution exactes.
Technologies de l’intelligence d’affaires Séance 12
Scénario Quatre hipsters entrent en collision un dans l'autre dans un ascenseur plein de personnes. En conséquence ils laissent tomber leurs téléphones.
République Algérienne Démocratique et Populaire Ministère de l'Enseignement Supérieur et de la Recherche Scientifique Université Saad.
L ES I NSTRUCTIONS I TÉRATIVES (L ES B OUCLES ) Réalisé par : OUZEGGANE Redouane Département de Technologie Faculté de Technologie – Université A.Mira,
Cyber-Sphinx Séance 2.
4.2 Estimation d’une moyenne
Branch-and-price algorithms for the solution of the multi-trip vehicle routing problem with time windows (MTVRPTW) 1.
IFT 615 – Intelligence artificielle Recherche heuristique locale
Calculs des incertitudes Lundi 30 Avril 2018 Master de Management de la Qualité, de la Sécurité et de l’Environnement.
 1____Probabilité  2______variables aléatoires discrètes et continues  3______loi de probabilités d’une v a  4_______les moyens et les moyens centraux.
Royaume de Maroc Université Hassan Premier Settat Faculté des Sciences et Techniques de Settat LA CLASSIFICATION K-MEANS SOUS R /MATLAB Master :Automatique.
INDICATEURS ET TABLEAUX DE BORD EN MAINTENANCE. Définitions Indicateur : chiffre significatif d’une situation économique pour une période donnée. Tableau.
Installation du lycée des Iscles de Manosque
Optimisation statistique de stratifiés composites
OPTIMISATION 1ère année ingénieurs
Arbres de décision.
Lois de Probabilité Discrètes
Variable Neighborhood Descent (VND) Réalisée par Nadia Sassi Eya baghdedi AU
Installation du lycée des Iscles de Manosque
Position, dispersion, forme
Moteurs de recherches Data mining Nizar Jegham.
CSI 3505 Algorithmes Voraces
Programme d’appui à la gestion publique et aux statistiques
Encadré par : M. Mohammad EL GHABZOURI Elaboré par : - AZEGAMOUT Mohamed - ABOULKACEM abdelouahed - GOUN Ayoub EXPOSÉ Sous le thème : SER 2018 Parallélisme.
Encadrée par: - Mr. Abdallah ALAOUI AMINI Réalisée par : -ERAOUI Oumaima -DEKKAR Amal - ES-SAHLY Samira -Houari Mohammed PROGRAMMATION MULTIOBJECTIFS.
Introduction  La PLNE regroupe l’ensemble des techniques permettant de résoudre des programmes linéaires dont les solutions doivent être entières.  Formellement,
A. Zemmari SDRP & MA Problème du rendez vous : un algorithme probabiliste et une analyse probabiliste A. Zemmari.
Aide à la décision M. Barbot – 09/03/2016 – EFREI
STATISTIQUE INFERENTIELLE LES TESTS STATISTIQUES.
Transcription de la présentation:

Métaheuristiques pour l’optimisation combinatoire Sébastien Verel Manuel Clergue

Optimisation Combinatoire S : ensemble de solutions potentielles de cardinal au plus dénombrable (souvent fini de grande taille) Problème combinatoire : Trouver la ou les solutions de S convenable Optimisation combinatoire : f : S -> R fonction à optimiser (ou de coût) Trouver la ou les solutions de S donnant la ou les plus grandes (ou plus petites) valeurs pour f.

Optimisation Combinatoire Exemples : –Affectation de fréquence en téléphonie –Le problème du sac-à-dos –Couverture d’ensemble –Découpage de verre sans perte –Routage de véhicules –Le voyageur de commerce –Yield management : gestion de ressource –Horaire de train –… … ………………. et même plus…..

Heuristiques Du grec heuriskein : trouver/découvrir (heureka) Une heuristique est plutôt une méthode qui cherche (stratégie)… puisqu’on ne peut garantir le résultat Définition : une heuristique est une méthode qui cherche de bonne solution (proche de l’optimalité) Remarques : Temps de calcul raisonnable Sans garantir faisabilité ou l’optimalité. Très large succès : de « un aveu d’impuissance » à « des techniques performantes de résolution »

Heuristiques Exemple (très) naïf : l’énumération Sur le TSP N villes : (N-1)!/2 solutions possibles Si N=20 prend 1 heure de calcul N=21 prend 20 heures N=22 prend 17,5 jours N=25 prend 6 siècles !

Métaheuristiques Classification : –Méthodes exactes de construction : branch and bound, simplex –Algorithme évolutifs : Algo. Génétiques Programmation Génétique Stratégies d’évolution –Recherche locale Méthode de descente (Hill-Climbing) Recuit Simulé Tabou …

Évaluation des MétaHeuristiques Le problème n’est pas tellement de générer une solution, mais de connaître sa qualité Évaluation en moyenne (et écart-type) Évaluation en meilleur solution obtenue Évaluation du compromis entre qualité/coût

Recherche Locale Notion de voisinage : Fonction de voisinage N : S -> 2^S Indique les voisins d’une solution Exemple: S = {0,1}^N, chaînes binaires de longueur N s1 appartient à N(s2) ssi distHamming(s1,s2) = 1

Recherche Locale Algorithme général : 1.Initialisation de s appartenant à S 2.Choisir s ’ dans N(s) 3.Aller à l’étape 2 si la condition d’arrêt n’est pas vérifiée en générale l’étape 2 distingue les métaheuristiques

Recherche Locale Remarques : –On peut mémoriser la « meilleure » solution rencontrée –Utilisation d’une évaluation incrémentale pour améliorer les temps de calcul

Recherche Locale Choix à faire : –Représentation de l’Espace des solutions faisables –Fonction à optimiser, de coût –Structure du voisinage Tous ces choix peuvent être critiques!..

Recherche Locale Le problème et son modèle –Solution exacte à un modèle approximatif ? –Solution approximative à un modèle exact ? Problème P et NP Problèmes de décision –Transformabilité (réductibilité) –NP-dur et NP-complets –P=NP ?? P  NP ??

Hill-Climber ou Steepest descent 1.Initialisation aléatoire s appartenant à S 2.Choisir le voisin s ’ le plus performant de N(s) pour tout s1 de N(s) f(s1) <= f(s ’ ) 3.Aller à l’étape 2 si une amélioration est possible Remarque: S’arrête sur optimum local On peut choisir le premier plus performant au lieu du performant

Recuit Simulé (SA) Simulated Annealing (Kirkpatrick 83) Inspirer par la physique statistique et les refroidissement des métaux Autorise les déplacements qui dégradent en fonction d’une probabilité qui dépend d’une température Paccept = exp(-  E / T) Si l’énergie décroît, le système accepte la perturbation Si l’énergie croît, le système accepte la perturbation selon Paccept

Recuit Simulé (SA) 1.Sélectionner une solution initiale s Sélectionner une température initiale t > 0 2.Sélectionner au hasard s’  N(s);  = f(s’) – f(s); si  < 0 alors s = s’ sinon x=hasard([0,1]); if x < exp(-  /t) alors s = s’ 3.Aller à l’étape 2 si la condition d’arrêt n’est pas vérifiée actualiser la température t

Recuit Simulé (SA) Paramètre de la recherche : –Température initiale : De façon à avoir 80% d’acceptation de descente au début –Schéma de refroidissement : T(n+1) = alpha * T(n) Changement à un nombre fixe d’itération Changement à un nombre fixe de descente ou de montée –Condition d’arrêt : nombre maximale d’itération température finale convergence vers une solution

Recherche Tabou (TS) Méthode proposée par F. Glover en 1986 –Future Paths for Integer Programming and links to Artificial Intelligence Introduire une notion de mémoire dans la stratégie d’exploration de l’espace de recherche Recherche tabou parce qu’il y a interdiction de reprendre des solutions récemment visitées

Recherche Tabou (TS) A chaque itération, « le moins mauvais » voisin est choisit Pour éviter les cycles, c’est à dire la répétition infinie d’une séquence de mouvements, les L derniers mouvements sont considérés comme interdits, L étant la taille de la liste tabou À chaque itération, le mouvement effectué est donc le moins mauvais mouvement non tabou

Recherche Tabou (TS) 1.Initialisation Une solution initiale s, s * = s 0, c * =f(s) TL =  2. s’  N(s) tel que  x  N(s), f(x)  f(s’) et s’  TL Si f(s) < c * alors s * = s, c * = f(s) Mise à jour de TL 3. Aller à l’étape 2 si la condition d’arrêt n’est pas vérifiée

Recherche Tabou (TS) Stratégie d’intensification : Les meilleures solutions rencontrées sont mémorisées Les propriétés communes en sont dégagées On oriente la recherche vers les régions ainsi définies Stratégie de diversification : On mémorise les solutions les plus visitées On impose un système de pénalités Les mouvements les moins utilisés sont favorisés

Recherche Tabou (TS) Aspiration : Consiste à lever le statut Tabou d’un mouvement, si il se révèle intéressant En général, le mouvement est choisi quelque soit son état si il conduit à une amélioration de la meilleure solution Taille de la liste tabou : La taille L est à déterminer empiriquement Ni trop longue, ni trop petite Règles statiques/dynamiques

Recherche Tabou (TS) Sélection du meilleur voisin : Best Fit : le voisinage est exploré en entier First Fit : un partie du voisinage est explorée Utilisation d’une table de calculs : Pour éviter de calculer entièrement le coût de chaque voisin, à chaque itération on mémorise dans une table les modifications au coût de la solution courante associées à chacun des mouvements possibles

Paysage de Fitness Définition : (Wrigth 1932) (S,f,V) est un paysage de fitness où : S Ensemble des solutions f : S -> R fonction à optimiser V Relation de voisinage

Paysage de Fitness Problème d’optimisation: Trouver S opt, f( s opt ) = max { f(s) | s in S } Maximum local: S loc Pour tout s in V(s loc ), f(s) <= f(s loc )

Paysage de Fitness et Rugosité Présence optima locaux Régularité du paysage (smooth)  Difficulté d’optimisation

Mesures de Rugosité Nombre d’optima locaux Distribution des optima locaux Distances entre optima Par marche adaptative ou analytiquement

Micro exemples OneMax : S = {0,1}^N f(s) = #1 Fonction « trap »: …voir tableau

Autocorrélation Autocorrélation (Weinberger) : (s 0, s 1, s 2, s 3, ….) marche aléatoire Rho(l) = cov(f(s n), f(s n+l )) / (sig[f(s n )]sig[f(s n+l )]) Longueur de corrélation : 1 / ln(Rho(1))

Rugosité - Dynamique Rugosité : Vision d’un grimpeur Rugosité : Notion d’information locale

Cause de la rugosité Epistasie : lien entre les gènes ou variables, degré de non linéarité Epistasie équivalent à rugosité NK-Fitness landscapes

Conclusion Très bons résultats sur certains types de problèmes Algorithmes faciles à mettre en œuvre Il faut faire les bons choix de paramétrage Solution non garantie Tendance : hybridation des métaheuristiques