Optimisation statistique de stratifiés composites Laurent Grosset (Grosset@emse.fr) R. Le Riche R. Haftka
Groupe de travail Optimisation Plan Présentation générale de l’optimisation statistique Modèle simple : cas linéaire Application à un problème d’optimisation de stratifiés composites Introduction de variables intermédiaires pour améliorer le modèle Résumé, prochains développements de la recherche 08/11/2018 Groupe de travail Optimisation
Groupe de travail Optimisation Introduction Algorithmes génétiques : basés sur une simulation d’un phénomène naturel (sélection naturelle), mais pas de justification mathématique Baluja, Mühlenbein : modèles statistiques des AGs. Proposent des algorithmes où les opérateurs standards (croisement, mutation…) sont remplacés par un modèle statistique 08/11/2018 Groupe de travail Optimisation
Groupe de travail Optimisation Références Baluja, S., 1994, « Population-based Incremental Learning » Mühlenbein, H., 1996, Univariate Marginal Distribution Algorithm, Factorized Distribution Algorithm Pelikan, M., 1999, Bayesian Optimization Algorithm 08/11/2018 Groupe de travail Optimisation
Passage d’une formulation classique à une formulation statistique Formulation classique trouver: Formulation statistique trouver: Utiliser la fonction coût pour mettre à jour les probabilités revient à utiliser le gradient de la formulation statistique (cf. méthode de la plus forte pente) 08/11/2018 Groupe de travail Optimisation
Principe de l’optimisation statistique Un modèle probabiliste associe à chaque point notre croyance qu’il est l’optimum (compte tenu de l’état de connaissance) Le modèle est utilisé pour guider la recherche en générant des points qui ont une forte probabilité d’être bons Le modèle est affiné à chaque itération en fonction des nouvelles observations Générateur de points : modèle P(X optimum|données) Mise à jour Population de points X 08/11/2018 Groupe de travail Optimisation
Groupe de travail Optimisation Exemple : une variable Au début de l’optimisation : pas d’information sur la localisation de l’optimum A chaque itération de nouveaux points sont visités A chaque itération un modèle probabiliste peut être construit/mis à jour Première génération de points Seconde génération de points 08/11/2018 Groupe de travail Optimisation
Algorithme général Initialisation de la distribution de probabilité Création de la population Mise à jour du modèle Sélection Choix algorithmiques: Comment représenter la distribution de probabilité? Comment sélectionner les bons individus? Comment mettre à jour le modèle 08/11/2018 Groupe de travail Optimisation
Mise en œuvre dans le cas discret N variables discrètes : X1, X2,…,XN qui peuvent prendre m valeurs discrètes : mN combinaisons possibles mN – 1 nombres pour décrire toute la distribution! On réduit le nombre de paramètres en supposant des relations d’indépendance entre les variables Algorithme génétique dans lequel on remplace les opérateurs traditionnels (sélection, croisement, mutation) par un modèle statistique Chaque point est codé par une chaîne de caractères de longueur finie 08/11/2018 Groupe de travail Optimisation
Exemple : 4 variables, 3 valeurs Distribution complète P(A,B,C): 81 combinaisons 80 paramètres Modèle chaîne P(A,B,C)=P(A)P(B|A)P(C|B)P(D|C): 20 paramètres Modèle indépendant P(A,B,C)=P(A)P(B)P(C)P(D): 8 paramètres A B C D A B C D A B C D 08/11/2018 Groupe de travail Optimisation
Modèle probabiliste à variables indépendantes Pour réduire le nombre de paramètres à identifier, on suppose les variables indépendantes : la probabilité d’une variable est indépendante de la valeur des autres variables La probabilité d’un point x = (x1x2…xN) est obtenue par : Comme la probabilité d’une variable ne dépend pas de la valeur des autres variables, chaque probabilité peut se calculer séparément 08/11/2018 Groupe de travail Optimisation
Apprentissage des probabilités Les probabilités sont obtenues en évaluant la fréquence de chaque valeur dans la population des bons individus Sélection : Troncature : garde les n meilleurs (ex. meilleur moitié) Proportionnelle à la fonction coût : probabilité de sélection proportionnelle à f Proportionnelle au rang dans la population : probabilité de sélection proportionnelle au rang … 08/11/2018 Groupe de travail Optimisation
Exemple de calcul de probabilités Population 1. Meilleure moitié 1 2 3 4 5 2/3 1/3 1 1 3 3 1 2 2 1 2 3 2 2 3 2 2 1 2 2 2. Rang 4 2 2 1 3 2 1 2 3 4 5 11/21 1/3 6/21 2/21 10/21 13/21 19/21 8/21 2/3 4/21 5 2 3 3 2 1 6 2 2 3 3 2 08/11/2018 Groupe de travail Optimisation
Groupe de travail Optimisation Mise à jour du modèle Pour calibrer le niveau de mémoire du modèle, on utilise la formule : m élevé : grande inertie ; m faible : grande capacité d’adaptation mais sensibilité à de mauvaises générations Dans notre cas meilleur résultat obtenu pour m = 0 08/11/2018 Groupe de travail Optimisation
Optimisation de stratifiés composites: variables Les propriétés mécaniques d’un stratifié dépendent : Des propriétés des matériaux De l’épaisseur des couches (plis) De l’orientation des fibres Ces variables sont souvent discrètes, à cause de contraintes de fabrication q x y z 08/11/2018 Groupe de travail Optimisation
Optimisation de stratifiés composites: fonction coût et contraintes Critères d’optimisation : Poids ou coût Charge de flambement Fréquences propres Résistance … Les problèmes d’optimisation de stratifiés sont des problèmes combinatoires 08/11/2018 Groupe de travail Optimisation
Problème test non couplé Problème : maximiser la rigidité longitudinale A11 Solution : toutes les fibres alignées selon x : [0°/0°/ 0°/0°/ 0°/0°/ 0°/0°/ 0°/0°] Particularité : ce problème est découplé car on augmente A11 en diminuant n’importe quel angle indépendamment de la valeur des autres angles 08/11/2018 Groupe de travail Optimisation
Résultats sur le problème test Les algorithmes probabilistes sont plus efficaces que l’AG : AG : 400 analyses pour 80% de fiabilité « Half Rank » : 200 analyses pour 80% de fiabilité La sélection basée sur le rang est plus efficace que la sélection basée sur la troncature Fiabilité de l’optimisation : probabilité d’atteindre l’optimum après un certain nombre d’analyses 08/11/2018 Groupe de travail Optimisation
Groupe de travail Optimisation Problème couplé Problème : maximiser rigidité longitudinale A11 contraintes rigidité transversale A22 A22min rigidité en cisaillement A66 A66min Optimum : [02/153/30/45/908] ou une de ses permutations Particularité : ce problème comporte des interactions entre les variables car si une variable a pour valeur 02, la probabilité de 0 pour les autres variables sera nulle 08/11/2018 Groupe de travail Optimisation
Groupe de travail Optimisation Avec couplage Seule la méthode « Half Rank » reste plus performante que l’AG À part « Bayesian updating », les méthodes statistiques restent compétitives par rapport à l’AG résultats encourageants qui montrent qu’il y a une marge de progression 08/11/2018 Groupe de travail Optimisation
Groupe de travail Optimisation Commentaires Modèle très simple, facile à mettre en œuvre Problème : modèle basé sur l’hypothèse d’indépendance des variables pas vérifié en général Prendre en compte le couplage : modèle probabiliste plus complexe, type réseau bayesien difficile à mettre en œuvre Autre alternative : introduire des variables intermédiaires qui synthétisent les couplages 08/11/2018 Groupe de travail Optimisation
Introduction de variables intermédiaires V1 et V2 sont des fonctions de tous les Xi. Chaque région dans l’espace des V prend en compte la contribution de chaque variable Si on impose une distribution sur les V, on favorise des combinaisons de X X1 X2 X3 … XN V1 V2 F 08/11/2018 Groupe de travail Optimisation
Effet du changement de variable sur les distributions Principe : On construit un probabilité de distribution des variables intermédiaires On utilise cette probabilité pour présélectionner des points qui satisfont les conditions de couplage Deux effets : Effet de couplage des variables Effet dû au changement de variable Cas des composites : paramètres de stratification : 08/11/2018 Groupe de travail Optimisation
Modification de l’algorithme Initialisation de la distribution de probabilité Création de la population Mise à jour du modèle Sélection On crée plus de points que nécessaire On sélectionne les points susceptible d’être bons à l’aide des variables intermédiaires Présélection basée sur les variable intermédiaires 08/11/2018 Groupe de travail Optimisation
Utilisation des paramètres de stratification À chaque itération on calcule la moyenne et matrice de covariance des bons individus À l’itération suivante, on construit une gaussienne à partir des ces valeurs Les points candidats générés par le modèle linéaire sont filtrés par la gaussienne 08/11/2018 Groupe de travail Optimisation
Effet du changement de variable p(V1) p() V1 Distribution dans l’espace des Changement de variable Distribution dans l’espace des V Le changement de variable favorise des points situés près des extrémités –1 et 1 08/11/2018 Groupe de travail Optimisation
Résultats : amélioration de l’efficacité Présélection bénéfique Présélection néfaste La fiabilité est améliorée par l’utilisation des paramètres de stratification Nombre de cas où la présélection a un effet positif l’emporte sur le nombre de cas ou l’effet est négatif 08/11/2018 Groupe de travail Optimisation
Problèmes rencontrés, questions Algorithme trop conservateur : freine le progrès car les points qui s’éloignent trop du point courant sont exclus Cela a-t-il du sens de fitter une gaussienne compte tenu de la taille des populations (<10)? L’amélioration observée est-elle spécifique aux paramètres de stratification? Tout changement de variable donnerait-il le même résultat? 08/11/2018 Groupe de travail Optimisation
Groupe de travail Optimisation Résumé Modèles linéaires : Facile à mettre en œuvre Peu de paramètres à régler Ne prennent pas en compte les couplages entre variables Modèle à variable intermédiaire Prend en compte des interactions entre variables Apportent une amélioration 08/11/2018 Groupe de travail Optimisation
Directions de recherche Utiliser un modèle probabiliste plus complexe qui prend en compte le couplage entre les variables : Modèle Chaîne Réseau bayesien Réfléchir à l’importance de la taille des populations, rôle de la mutation… Au lieu de fournir UN point optimum, l’optimisation fournit une densité de probabilité. Comment les interpréter et les utiliser : Fiabilité de l’optimum, sensibilité Relation au problème physique 08/11/2018 Groupe de travail Optimisation