La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

5. Algorithme à estimation de distribution

Présentations similaires


Présentation au sujet: "5. Algorithme à estimation de distribution"— Transcription de la présentation:

1 5. Algorithme à estimation de distribution
KHODJA Mohamed

2 5. Algorithme à estimation de distribution
5.1 Définition Les algorithmes à estimation de distribution forment une famille de métaheuristiques inspirée des algorithmes génétiques. À l'inverse des algorithmes évolutionnaires "classiques", le cœur de la méthode consiste à estimer les relations entre les différentes variables d'un problème d'optimisation, grâce à l'estimation d'une distribution de probabilité, associée à chaque point de l'échantillon.

3 5. Algorithme à estimation de distribution
5.1 Définition Le vocabulaire lié aux algorithmes à estimation de distribution est emprunté à celui des algorithmes évolutionnaires, on parlera donc de « population d'individus » plutôt que d'« échantillon de points », ou de « fitness » plutôt que de « fonction objectif », néanmoins, tous ces termes ont la même signification.

4 5. Algorithme à estimation de distribution
Afin d’optimiser la fonction objectif 𝑓(𝑥), par l’AED on applique l’algorithme suivant : Tirer au hasard M individus, pour former une population D0. i = 0 Tant qu'un critère d'arrêt n'est pas vérifié : i = i + 1 Sélectionner N individus (avec N < M) dans la population précédente (Di − 1), pour former la population : 𝐷 𝑖−1 𝑆 Estimer une distribution de probabilité 𝑃 𝑖 (𝑥), décrivant la répartition de la population 𝐷 𝑖−1 𝑆 . Tirer au hasard M individus dans 𝑃 𝑖 (𝑥). Fin de la boucle.

5 5. Algorithme à estimation de distribution
Avec: P : la population. PS : les points sélectionné PDe : Distribution de PS. PDu : Distribution de P. Dans cet exemple, on optimise une fonction objectif continue f(X), ayant un seul optimum O. Au fur et à mesure du déroulement de l'algorithme, l'échantillonnage (suivant une loi normale N) se concentre autour de l'optimum.

6 5. Algorithme à estimation de distribution
5.3 Exemple « one max » Dans le problème du « one max », on cherche à maximiser le nombre de 1 sur un nombre de dimensions donné. Pour un problème à 3 dimensions, une solution 𝑥 1 = {1,1,0} aura donc une meilleure qualité qu'une solution 𝑥 2 = 0,1,0 On cherche donc à maximiser une fonction 𝑓 𝑥 = 𝑖=1 3 𝑥 𝑖 , où 𝑥 𝑖 peut prendre la valeur 0 ou 1. Etape 1: Tirer au hasard les individus, avec pour chaque variable, une chance sur deux de tirer un 1 ou un 0. Avec : 𝑃 𝑜 𝑥 = 𝑖=1 3 𝑝 𝑜 ( 𝑥 𝑖 ) et 𝑝 𝑜 ( 𝑥 𝑖 ) est la probabilité que chaque élément soit égal à 1

7 5. Algorithme à estimation de distribution
5.3 Exemple « one max » Population D 0 de 6 individus la dernière ligne indique la probabilité 𝑝(𝑥) pour chaque variable 𝒊 𝑥 1 𝑥 2 𝑥 3 𝑓(𝑥) 1 2 3 4 5 6 𝑝(𝑥) 0.5 Etape 2: la sélection des meilleurs individus, pour former 𝐷 1 𝑠 , Dans notre exemple, il s'agit simplement de ne garder que les 3 meilleurs individus.

8 5. Algorithme à estimation de distribution
5.3 Exemple « one max » Population D 0 de 6 individus la dernière ligne indique la probabilité 𝑝(𝑥) pour chaque variable 𝒊 𝑥 1 𝑥 2 𝑥 3 𝑓(𝑥) 1 2 3 4 5 6 𝑝(𝑥) 0.5 Etape 2: la sélection des meilleurs individus, pour former 𝐷 1 𝑠 , Dans notre exemple, il s'agit simplement de ne garder que les 3 meilleurs individus.

9 5. Algorithme à estimation de distribution
5.3 Exemple « one max » Les trois paramètres ( 𝑝 𝑖 (𝑥)) caractérisant la distribution de probabilité ( 𝐷 1 𝑠 ) ont changé après la sélection. En utilisant cette nouvelle distribution, on peut tirer une nouvelle population. 𝒊 𝑥 1 𝑥 2 𝑥 3 𝑓(𝑥) 3 1 2 4 5 𝑝(𝑥) 0.7 0.3

10 5. Algorithme à estimation de distribution
5.3 Exemple « one max » 𝒊 𝑥 1 𝑥 2 𝑥 3 𝑓(𝑥) 1 3 2 4 5 6 𝑝(𝑥) 0.7 0.3 On obtient la nouvelle population : Et ainsi de suite jusqu'à vérifier un critère d'arrêt (par exemple quand tous les individus sont à l'optimum, comme l'individu 1 ).

11 5. Algorithme à estimation de distribution
5.4 Comportement Le graphique représente les distributions des valeurs des optimums trouvés (sur un grand nombre d'exécutions) : l'algorithme passe d'une population de solution très dispersée (A) à une population plus centrée sur l'optimum trouvé (B).

12 5. Algorithme à estimation de distribution
5.4 Comportement Il a été démontré (généralement à l'aide de modèles de Markov ou de systèmes dynamiques) que la plupart des versions pour l'optimisation combinatoire sont convergentes (c’est-à-dire qu'elles peuvent trouver l'optimum en un temps fini).

13 5. Algorithme à estimation de distribution
5.5 Modèles de distributions Le comportement des algorithmes à estimation de distribution repose en grande partie sur le choix du modèle de distribution utilisé pour décrire l'état de la population. Les modèles sont classifiés en fonction de leur degré de prise en compte des dépendances entre les variables : Modèles sans dépendances, Modèles avec dépendances bi-variantes, Modèles avec dépendances multi-variantes. Dans le cas des modèles sans dépendances, la distribution de probabilité est construite à partir d'un ensemble de distributions définies sur une seule variable. Dis autrement, la distribution est factorisée à partir de distributions univariantes, indépendantes sur chaque variable.

14 5. Algorithme à estimation de distribution
5.6 Variantes Les variantes les plus connues de l'estimation de distribution sont : l'apprentissage incrémental à population (« Population Based Incremental Learning », PBIL) l'algorithme à distribution marginale univariée (« Univariate Marginal Distribution Algorithm », UMDA) l'algorithme génétique compact (« Compact Genetic Algorithm », CGA).

15 5. Algorithme à estimation de distribution
5.6 Variantes Il existe également des variantes utilisant des mécanismes de partitionnement de données pour l'optimisation multimodale, des adaptations au calcul parallèle, etc. De par la place centrale du côté probabiliste, l'estimation de distribution partage de nombreux points communs avec les stratégies d'évolution, une des premières métaheuristiques proposées, et les algorithmes de colonie de fourmis. Mais on peut également pointer les similarités avec le recuit simulé (qui utilise la fonction objectif comme distribution de probabilité pour construire un échantillon) et les algorithmes génétiques, dont les algorithmes à estimation de distribution sont issues, et dont ils utilisent toujours les opérateurs de sélection.

16 5. Algorithme à estimation de distribution
5.7 Bibliographie fr.wikipedia.org Métaheuristiques d'optimisation vues sous l'angle de l'échantillonnage de distribution - Johann Dré, Patrick Siarry


Télécharger ppt "5. Algorithme à estimation de distribution"

Présentations similaires


Annonces Google