Optimisation dans les télécommunications

Slides:



Advertisements
Présentations similaires
Théorie des graphes.
Advertisements

Soutenance du stage de DEA.
Gestion de portefeuille
Gestion de portefeuille
Efficient Simplification of Point-Sampled Surfaces
Recherche de motifs par méthodes exploratoires: Comparaisons de performances et statistiques sur le score.
Champs de Markov en Vision par Ordinateur
Métaheuristiques pour l’optimisation combinatoire
Equipe optimisation TempoSoft
A Pyramid Approach to Subpixel Registration Based on Intensity
Visualisation d’information interactive 5 : Graphes
A.Faÿ 1 Recherche opérationnelle Résumé de cours.
Plus rapide chemin bicritère : un problème d’aménagement du territoire
Modélisation des systèmes non linéaires par des SIFs
Chapitre II.Rappels mathématiques et complexité
Optimisation globale non déterministe
Travail d’Etude et de Recherche :
L’optimisation par essaims De particules
3. Algorithme Colonies de fourmis.
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
Application des algorithmes génétiques
5. Algorithme à estimation de distribution
CHALLENGE ROADEF 2001 Résolution par une métaheuristique à base de recherche à voisinage variable et propagation par contraintes Fabrice BUSCAYLET Fabrice.
Heuristiques A. Introduction B. Recherche d ’une branche
Les Algorithmes Génétiques
Programmation linéaire
Méthode des k plus proches voisins
Optimisation en nombres entiers Recherche Opérationnelle GC-SIE.
La segmentation
Les Algorithmes Métaheuristques
4. Algorithme de Recuit Simulé
Algorithme de Bellman-Ford
II- L’algorithme du recuit simulé (pseudo-code)
Génération d’un segment de droite
Optimisation dans les réseaux
Optimisation-Identification et Cast3M
Mise en oeuvre des MMCs L'utilisation des MMCs en reconnaissance des formes s'effectue en trois étapes : définition de la topologie de la chaîne de Markov,
AIP PRIMECA des Pays de La Loire – 9 novembre 2006
Extraction Automatique de formes complexes : Application à la création de modèle anatomique de la tête J. Piovano, T. Papadopoulo Séminaire Odyssee 9,
Programmation dynamique
Génération de colonnes pour la résolution des problemes de foresterie
Programmation linéaire en nombres entiers : les méthodes de troncature
Introduction Objet de la programmation mathématique, construction d'un modèle mathématique, problème général de programmation mathématique et classification,
les méthodes de recherche locale
Programmation dynamique
Optimisation par les algorithmes génétiques
Programmation linéaire en nombres entiers
Intelligence Artificielle
Travaux Pratiques Optimisation Combinatoire
UN ALGORITHME PERFORMANT DE CALCUL DES ERREURS DE FORME
Recherches locales et méta-heuristiques
Classification de données par l’algorithme FPSO-GA
TIPE Les dames chinoises
- 5 - Optimisation linéaire et non-linéaire
ASI 3 Méthodes numériques pour l’ingénieur
La recherche de vertex dans CMS : le recuit déterministe Nicolas Estre – IPN Lyon – Journées Jeunes Chercheurs 2003.
Université Farhat Abbas_setif
Algorithmes génétiques en optimisation combinatoire
Présenté par : ABED Djemaa; BAKHOUIA Roqiya.
Algorithmes génétiques
Implémentation d’un opérateur de répartition de sources lumineuses
20/06/2015propagation de signatures lexicales dans le graphe du Web 1 Propagation de signatures lexicales dans le graphe du Web M. Bouklit M. Lafourcade.
Dr. MOKEDDEM République Algérienne Démocratique et Populaire
Optimisation par les algorithmes génétiques
Peuplement d’une ville virtuelle S.ESTIENNE PRE001v1.01 Exemple d’utilisation du GA 1. Initialement une population est choisie au hasard. 2. Chaque individu.
1 Logiciels de confection automatique d’horaires.
Évolution de second ordre dans un algorithme évolutionnaire V. Lefort
Problème du Car Sequencing
Recuit simulé Une métaheuristique venue de la métallurgie.
GdR MoMaS Novembre 2003 Conditions d’interface optimales algébriques pour la vibro-élasticité. François-Xavier Roux (ONERA) Laurent Sériès (ONERA) Yacine.
Transcription de la présentation:

Optimisation dans les télécommunications RTS 1 – Oct. Nov. 2010 Hervé Rivano (thx Katia Jaffrès-Runser) 9/03/10

Présentation du cours L’optimisation : pourquoi, qu’est-ce que c’est ? Quelques techniques générales classiques L’optimisation convexe La programmation linéaire Théorie et pratique (math inside) Génération de colonne Programmation linéaire en nombres entiers 9/03/10

Quelques problèmes d'optimisation Au niveau PHY: Allocation de fréquences GSM Allocation de longueurs d’onde WDM Au niveau MAC Allocation des canaux en TDMA Au niveau Routage Recherche du plus court chemin Routage d'un (plusieurs) trafic(s) sur un réseau radio maillé Conception de réseau Combinaison des problèmes ci-dessus Coût énergétique, nombre de clients simultanés, tarification 9/03/10

Optimiser ? Espace des solutions D Explicite / implicite On cherche à résoudre un problème du type f : fonction objective. En général f:DR Et si on veut maximiser ? 9/03/10

Difficulté d’un problème d’optimisation 9/03/10

Difficulté : formulation Continue. Le nombre de solutions n est infini ! La difficulté se trouve au niveau de la nature de la fonction d’évaluation : Si f est convexe, une simple stratégie de descente converge. 9/03/10

Difficulté : Formulation continue 9/03/10

Difficulté : Formulation continue 9/03/10

Difficulté d'un problème Algorithme de recherche le plus évident : la recherche exhaustive Est-ce qu'une telle approche est toujours réalisable ? … cela dépend du temps de calcul à sa disposition ! 9/03/10

Difficulté d'un problème Quels facteurs influencent la durée de la résolution ? → Le nombre de variables. → La taille/forme du domaine de définition de chaque variable. → La forme de la fonction d’évaluation. → Le temps de calcul nécessaire à l’évaluation d’une solution. 9/03/10

Les principaux algorithmes de résolution. 9/03/10

Recherche linéaire Recherche linéaire : Brique de base des autres méthodes continues. Recherche itérative du minimum dans une seule direction : A l’itération k, on cherche : Tel que : Pas de recherche Direction 9/03/10

Recherche linéaire λ d2 Deux recherches linéaires Performance dépend du choix de d et de lambda d2 xi λ Xi+1 d1 9/03/10

Algorithmes basés sur la dérivée. Méthode de Newton : Résolution de g(x) = 0, g:n → n à partir d’une solution de départ x0  n. A chaque itération, on calcule le point xk+1 : Ici, le pas de recherche est inversement proportionnel au gradient 9/03/10

Algorithmes basés sur la dérivée. Méthode de Newton pour minimiser f(x) : On utilise le même principe en posant g(x) = f(x). On cherche alors le point où f(x)=0 : Converge rapidement si x0 est proche de x*, sinon, c’est très long….. 9/03/10

1- Algorithmes d’optimisation continue Que faire quand on ne peut pas calculer directement le gradient de f ? Estimer f par différences finies Ne pas travailler avec f ! 9/03/10

Algorithmes de recherche directe Méthodes de Recherche Directe. C’est l’observation d’un jeu de solutions qui implique à chaque itération Une comparaison du jeu de solutions avec la meilleure existante. Une stratégie de choix du prochain jeu de solution. Pas de calcul de gradient. 9/03/10

Recherche locale Notion de voisinage Stratégie triviale ! A chaque itération : On teste les proches voisins dans l’espace discret des solutions On choisit le meilleur. Notion de voisinage 2 solutions s1 et s2 sont « voisines » si s2 est obtenue par une « modification élémentaire » de s1 Converge forcément vers un minimum local ! Comment trouver l’optimum global ? 9/03/10

Les Métaheuristiques. Une Métaheuristique est un ensemble de concepts qui peuvent être utilisés pour définir des heuristiques (algorithmes) qui peuvent être appliquées à un grand ensemble de problèmes différents. On les utilise en général quand les problèmes sont difficiles. 9/03/10

Les Métaheuristiques. C’est un schéma générique d’algorithme qui peut être adapté à différents problèmes d’optimisation. Mêlent recherche globale et locale : Parcours améliorant des voisinages Dégradation de la solution acceptée 9/03/10

Les Métaheuristiques Elles comprennent principalement les algorithmes : Recuit Simulé, Recherche Tabou, Génétique, Colonies de fourmis. …. Et d’autres ! 9/03/10

Le Recuit Simulé. Inspiré du procédé de recuit des métaux : Pour arriver à un état stable (optimal) après fusion, un métal est refroidit lentement. Au cours du refroidissement, il est recuit par intermittence. Ceci lui permet d’arriver à un état d’énergie minimal stable, optimal. Energie potentielle Recuit Temps 9/03/10

Le Recuit Simulé. Par analogie, on définit l’énergie initiale du processus d’optimisation E et la température initiale T. A chaque itération, on modifie localement la solution et on analyse le changement d’énergie. Si E est négatif, on accepte la solution, Si E est positif, on accepte la solution avec une probabilité donnée par : 9/03/10

Le Recuit Simulé. Après n itérations, on fait décroître T. T élevée  grande probabilité d’accepter une transition qui dégrade f. T est faible  converge vers un minimum local Paramètres : Température initiale schéma de refroidissement de T (n et loi) Critère d’arrêt 9/03/10

Le Recuit Simulé La probabilité d’acceptation permet à f La probabilité d’acceptation permet à l’algorithme de ne pas rester stoppé dans un minimum local. 1 2 3 x 9/03/10

La Recherche Tabou Se base sur une recherche locale On prend la meilleure solution du voisinage Même si elle est moins bonne que l’actuelle On garde en mémoire les choix déjà fait Stocke le chemin parcouru dans une liste tabou On ne refait pas les mêmes choix Taille de la liste bornée 9/03/10

La Recherche Tabou 9/03/10

La Recherche Tabou. Paramètres : Définition du voisinage critique taille de la liste tabou critère d’arrêt Définition du voisinage critique 9/03/10

Algorithmes Evolutionnaires. C’est la famille qui comprend les algorithmes génétiques. Inspiré par l’Evolution des Espèces dans la nature. Basée sur la sélection naturelle des individus les meilleurs et le croisement des individus. 9/03/10

Algorithmes Evolutionnaires. Macro-Algorithme : On créé un premier ensemble de solutions : la Population Initiale. On évalue chaque individu de cette population. On répète : Sélection des meilleurs Individus. Lancement des opérateurs génétiques pour créer une nouvelles population. Evaluation de la nouvelle population. Jusqu’à ce que le critère soit atteint. 9/03/10

Algorithmes Evolutionnaires. Opérateurs génétiques : Mutation des Individus Croisement des Individus Type d’algorithmes utilisés très souvent. Difficile à paramétrer 9/03/10

Colonies de Fourmis. Inspiré par la quête de nourriture d’une colonie de fourmis et de leur comportement social. Une fourmi : peu de mémoire ! Pour palier à cela, leur société est organisée autour du travail collaboratif. Communication par des stimuli : Dépôt d’une phéromone par la fourmi pour signaler le chemin vers une source de nourriture. Cette phéromone est volatile ! 9/03/10

Colonies de fourmis. L’algorithme créé une population de fourmis qui va se déplacer dans l’ensemble de solution représenté sous la forme d’un graphe. A chaque déplacement, on collecte plus d’information sur f. Chaque fourmi choisi son chemin aléatoirement mais la probabilité de choix est pondérée par la concentration de phéromone. Plus la concentration est forte, plus la fourmi aura tendance à choisir son chemin. 9/03/10

Colonies de Fourmis. Pour appliquer cette métaheuristique à une problème, on doit : Représenter le problème comme un problème de recherche sur un graphe. Un retour positif sur le choix d’un chemin doit être défini (phéromone). Une stratégie gloutonne doit être défini pour construire la solution au fur et à mesure. 9/03/10