La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Expérimentation et optimisation. 2 La puissance des ordinateurs et l'évolution des langages de simulation permettent de plus en plus au gestionnaire qui.

Présentations similaires


Présentation au sujet: "Expérimentation et optimisation. 2 La puissance des ordinateurs et l'évolution des langages de simulation permettent de plus en plus au gestionnaire qui."— Transcription de la présentation:

1 Expérimentation et optimisation

2 2 La puissance des ordinateurs et l'évolution des langages de simulation permettent de plus en plus au gestionnaire qui connaît très bien la nature même du problème d'analyser et d'expérimenter des configurations différentes d'un même système grâce à un modèle de simulation. Toutefois, cette expérimentation et optimisation ne peut se faire sans la contribution d'un analyste en simulation. L'analyse statistique ne peut se faire automatiquement. But du chapitre: Puisque la simulation est une opération descriptive, la valeur de la configuration choisie dépend surtout de l'habileté de l'équipe de modélisation. La simulation ne permet pas d'obtenir des solutions optimales. Nous examinerons différentes techniques permettant d'évaluer plusieurs configurations alternatives du système.

3 Expérimentation et optimisation3 Techniques permettant d'évaluer différentes configu- rations alternatives du système lesquelles sont obte- nues en faisant varier une variable de décision En procédant ainsi, on accepte le fait que l'ensemble des configurations alternatives ne contient pas nécessairement la solution optimale.

4 Expérimentation et optimisation4 A) Lévaluation de deux configurations alternatives L'évaluation de 2 configurations alternatives peut être l'objet de plusieurs applications: 2 aménagements différents touchant la gestion du personnel d'une banque. 2 politiques définissant dans quel ordre les clients seront servis. 2 politiques de réapprovisionnement. etc. Dans chaque cas, nous cherchons à déterminer la configuration dont la performance est plus élevée selon une mesure donnée. Puisque les résultats d'une simulation sont stochastiques par nature, cette comparaison n'est pas immédiate et nous devons recourir à des tests statistiques.

5 Expérimentation et optimisation5 A) Lévaluation de deux configurations alternatives Pour que ces tests statistiques soient valides, certaines conditions doivent être satisfaites. La plus importante est l'indépendance des 2 échantillons (l'ensemble des résultats pour chaque simulation). Nous pouvons donc distinguer 3 cas possibles: -2 échantillons indépendants issus de 2 populations dont la variance est égale. -2 échantillons indépendants issus de 2 populations dont la variance diffère. -2 échantillons corrélés. Les 2 premiers cas exigent que les 2 suites de nombres aléatoires générés soient indépendantes; dans le troisième cas, la même suite est utilisée.

6 Expérimentation et optimisation6 Cas 1 & 2: échantillons indépendants Les résultats de la simulation nous fournissent 2 échantillons indép.: Y ij,i = 1, 2,..., n;j = 1, 2 où Y ij désigne l'élément i de l'échantillon (configuration) j. Note:On suppose que les 2 échantillons ont même taille. Il s'agit de tester l'hypothèse qu'il y a une différence significative entre les 2 échantillons:H 0 : 1 - 2 = 0 H 1 : 1 - 2 0 où 1 et 2 sont les moyennes des 2 populations.

7 Expérimentation et optimisation7 Cas 1 & 2: échantillons indépendants Nous construisons un intervalle de confiance au niveau de la différence des moyennes des populations ( 1 - 2 ): Y.1 - Y.2 t déviation standard de Y.1 - Y.2 oùY.j = 1/n i=1,2,..., n Y ij j = 1, 2; est le nombre de degrés de liberté de la distribution t. Pour calculer la déviation standard de Y.1 - Y.2, nous avons: Var(Y.1 - Y.2 ) = Var(Y.1 ) + Var(Y.2 ) = 1 2 /n + 2 2 /n puisque les 2 échantillons sont indépendants. Nous pouvons estimer j 2 à l'aide de s j 2 = i=1,2,..., n (Y ij - Y.j ) 2 /(n-1), j=1,2.

8 Expérimentation et optimisation8 Cas 1: variances égales Si l'on peut assumer raisonnablement que 1 = 2 ou encore, qu'un test de Fisher confirme cette hypothèse, nous pouvons calculer un estimé avec 2n - 2 degrés de liberté de 2 = 1 2 = 2 2 en combinant les données des 2 échantillons: s 2 = (n-1) (s 1 2 + s 2 2 ) / (2n-2). Nous avons aussi:Var(Y.1 - Y.2 ) = 2s 2 / n

9 Expérimentation et optimisation9 Cas 2: variances différentes Var(Y.1 - Y.2 ) = (s 1 2 + s 2 2 ) / n où -2 + [(s 1 2 + s 2 2 ) / n] 2 / [( { s 1 2 /n } 2 + { s 2 2 /n } 2 ) / (n + 1)].

10 Expérimentation et optimisation10 Ex. I : Politiques de service des clients dans une épicerie Configuration A: 3 caisses qui servent tous les clients sans distinction. Les clients choisissent la caisse dont la file est la plus courte. Configuration B: 1 caisse expresse (6 items ou moins) et les 2 autres caisses pour tous les autres clients. Lorsqu'un client avec 6 items ou moins arrive aux caisses, 2 cas peuvent se produire: a) si une caisse est disponible, il la prend. b) autrement, il va à la ligne expresse. Lorsqu'un client régulier arrive aux caisses, 2 cas peuvent se produire: a) si une caisse régulière est disponible, il la prend. b) autrement, il va à la ligne la plus courte.

11 Expérimentation et optimisation11 Ex. I : Politiques de service des clients dans une épicerie Les clients avec 6 items ou moins arrivent aux caisses selon une distribution exponentielle de moyenne 0.8 minute entre les arrivées. Les clients réguliers arrivent aux caisses selon une distribution exponentielle de moyenne 3.1 minutes entre les arrivées. Le temps de traitement des items est de 0.17 minutes par item de sorte que le temps total de traitement dépend du nombre d'items achetés. La mesure de performance choisie est le temps total (temps d'attente et temps de service) moyen passé au magasin par client. 10 répétitions indépendantes de la simulation ont été effectuées.

12 Expérimentation et optimisation12 Tableau des résultats # de la répétitionTemps total moyen passé dans le système(min.) aucune ligne expresse1 ligne expresse 17.275.75 220.0912.79 318.6011.44 419.809.73 57.144.16 629.1714.95 712.8710.34 811.407.64 913.409.55 108.815.29 moyenne échantillonnale14.869.16 variance échantillonnale49.1411.97

13 Expérimentation et optimisation13 Résultats obtenus Une évidence des résultats obtenus: les variances diffèrent. On obtient: Y.1 - Y.2 = 14.86 - 9.16 = 5.7 déviation standard = [(49.14 + 11.97)/10] = 2.47 L'intervalle de confiance est:5.7 t 14 2.47 = 5.7 5.30 [0.40, 11.00]. Puisque l'intervalle ne contient pas 0, l'hypothèse est rejetée. De plus, la configuration avec 1 ligne expresse est plus avantageuse. --------------------------------------------------

14 Expérimentation et optimisation14 Cas 3: échantillons corrélés Le seul intérêt dutiliser des échantillons corrélés est de tenter de réduire la variance de Y.1 - Y.2, ce qui aurait pour effet de réduire lintervalle de confiance. Examinons ceci de plus près: Var(Y.1 - Y.2 ) = Var(Y.1 ) + Var(Y.2 ) - 2 cov(Y.1, Y.2 ) = 1 2 /n + 2 2 /n - 2 r 12 1 2 /n où r 12 = cov(Y i1, Y i2 ) / 1 2 est le coefficient de corrélation entre les 2 populations, cov(Y.1, Y.2 ) = cov(Y i1, Y i2 ) / n. Sil existe une corrélation positive entre les 2 échantillons ( r 12 > 0), la corrélation entre les échantillons permet de réduire la variance.

15 Expérimentation et optimisation15 Cas 3: calcul de lintervalle de confiance Nous définissons une nouvelle variable aléatoire D i = Y i1 - Y i2 où -les D i sont indépendants - Y i1 et Y i2 sont corrélés positivement. D = 1/n i=1,2,..., n D i = Y.1 - Y.2 Var(D i ) = i=1,2,..., n (D i - D) 2 /(n - 1) Var(D) = Var(D i ) / n Pour tester lhypothèse H 0 : 1 - 2 = 0 H 1 : 1 - 2 0 lintervalle de confiance à un niveau est : D t /2, n-1 déviation standard de D. Une stratégie pour tenter d'obtenir une corrélation positive entre les échantillons est d'utiliser la même suite de nombres aléatoires générés.

16 Expérimentation et optimisation16 Tableau des résultats (échantillons corrélés) # de la répétitionTemps total moyen passé dans le système(min.) aucune ligne expresse1 ligne expresse 19.495.81 222.4011.10 39.246.16 415.2512.45 526.5811.14 630.9717.72 76.675.13 811.047.58 916.2810.62 1013.7011.03 moyenne échantillonnale16.169.87 variance échantillonnale64.7114.59

17 Expérimentation et optimisation17 Tableau des résultats On obtient: D = 6.29, = 5%, l'intervalle de confiance est 6.29 3.62 ou encore, [2.67,9.91]. Les mêmes conclusions s'imposent mais, cette fois-ci, la longueur de l'intervalle de confiance est plus petite.

18 Expérimentation et optimisation18 B) L'évaluation de plusieurs configurations alternatives Cela a plusieurs conséquences: -Auparavant, nous avions 1 seule paire à examiner. Maintenant, N configurations entraînent N(N-1)/2 paires à examiner. -Un plus grand nombre de simulations doivent être effectuées. -Cela cause des difficultés quant à la précision des estimateurs. -La fiabilité des tests lorsque le # de comparaisons c'est-à-dire, l'erreur de première espèce lorsque le # de comparaisons Pour réduire le # de comparaisons, une stratégie consiste à comparer N configurations alternatives à une configuration standard i.e., effectuer N comparaisons. Au lieu de considérer 2 configurations possibles, nous pouvons considérer un nombre plus ou moins grand de valeurs prises par la variable de décision.

19 Expérimentation et optimisation19 B) L'évaluation de plusieurs configurations alternatives Chaque comparaison se traduit par un test d'hypothèse de la forme: H 0 : i - j = 0 H 1 : i - j 0 où i et j sont les moyennes respectives de la mesure de performance des populations reliées aux configurations i et j. Soit i l'erreur de première espèce associée au i ième test, alors Erreur de première espèce globale pour N tests d'hypothèses simultanés = E = Prob (au moins 1 des N interv. de confiance ne renferme pas la valeur théorique) 1 + 2 +... + N.

20 Expérimentation et optimisation20 Cas particuliers et exemple N = 2 E = 1 + 2 - 1 2 lorsque les populations sont indépendantes 1 + 2 autrement. Exemple 3: 3 politiques de service des clients dans une épicerie (échantillons corrélés) Nous reprenons l'exemple précédent en considérant une 3 ième configura- tion où 2 lignes expresses sont disponibles. La configuration i possède i-1 lignes expresses, i=1, 2, 3. Nous avons utilisé la même suite de nombres aléatoires générés pour chaque configuration: les échantillons sont corrélés.

21 Expérimentation et optimisation21 Tableau des résultats #Temps total moyen passé dans le système(min.) 0 ligne expresse1 ligne expresse2 lignes expresses 19.495.8118.23 222.4011.1020.48 39.246.1624.47 415.2512.4522.88 526.5811.1420.60 630.9717.7229.30 76.675.1324.27 811.047.5821.29 916.2810.6223.93 1013.7011.0322.07 moy. échantillonnale16.169.8722.75 var. échantillonnale64.7114.5910.18

22 Expérimentation et optimisation22 Tableau des résultats L'intervalle de confiance pour la paire (1,2):[2.67, 9.91] L'intervalle de confiance pour la paire (1,3):[-13.73, 0.55] L'intervalle de confiance pour la paire (2,3):[-16.1, -9.66]. Nous pouvons en conclure: Il est préférable d'utiliser une ligne expresse plutôt qu'aucune. Il est préférable d'utiliser une ligne expresse plutôt que deux. 0 ligne expresse ou 2 sont 2 configurations presque identiques. Nous testons chaque paire de configurations suivante: (1,2), (1,3) et (2,3) et nous testons chaque hypothèse à un niveau 0.02. E <=0.06

23 Expérimentation et optimisation23 Techniques permettant d'évaluer plusieurs configurations alternatives du système Jusqu'à maintenant, nous avons considéré un petit nombre de configurations lesquelles sont obtenues en faisant varier une seule variable de décision. Nous allons maintenant relaxer l'une et/ou l'autre de ces restrictions. Toutefois, nous considérons toujours une seule mesure de performance et nous savons que l'ensemble des configurations alternatives n'inclut pas nécessairement la configuration optimale.

24 Expérimentation et optimisation24 Plan à classification simple est la tendance générale de la mesure de performance (moyenne de la population), j est l'effet dû à la j ième configuration, e ij est l'erreur aléatoire sur l'observation ( les e ij sont assumées indépendantes et normalement distribuées). Nous considérons d'abord une seule variable de décision pouvant prendre k valeurs. Pour une valeur de la variable de décision, nous répétons l'expérience n fois. Le modèle statistique a la forme suivante: Y ij = + j + e ij,i= 1,2,..., nj=1,2,..., k oùY ij est la i ième valeur observée de la mesure de performance lorsque la variable de décision prend la j ième valeur,

25 Expérimentation et optimisation25 Plan à classification simple Les n répétitions d'une simulation de la j ième configuration du système sont indépen- dantes. Les i ième répétitions d'une simulation pour chaque configuration du système sont indépendantes. On doit toujours s'assurer de l'à-propos de telles hypothèses dans la pratique.

26 Expérimentation et optimisation26 Exemple dun plan à classification simple Supposons que l'on veuille étudier l'effet de différents traitements possibles d'une maladie sur l'être humain. On pourrait essayer de réunir un ensemble d'individus atteints de cette maladie et les diviser en k groupes de façon à ce que les k groupes soient le plus semblables entre eux. On applique alors à chaque groupe un traitement donné et on cherche alors à répondre à des questions de la forme suivante: a) Les traitements sont-ils tous aussi efficaces? b) Sinon, peut-on les classer par ordre d'efficacité? c) Y a-t-il des traitements équivalents, si oui, lesquels?

27 Expérimentation et optimisation27 Test dhypothèse dun plan à classification simple -H 0 : j = 0pour tout j = 1, 2,..., n H 1 : j 0pour au moins un j. Le test est effectué à un niveau donné (0.05 par exemple). -Si nous ne pouvons rejeter H 0, nous pouvons conclure que les changements dans la variable de décision n'entraînent pas de différences significatives quant à la mesure de performance. - Si nous rejetons l'hypothèse nulle, statistiquement, il existe des différences significatives entre les configurations du système. -Pour effectuer ces tests, nous référons à un tableau partiel d'analyse de variances:

28 Expérimentation et optimisation28 Tableau partiel danalyse de variances Expression# d. l.CMF de la somme des carrés SSR m k-1CMT r =CMT r SSR m / (k-1)CME SSEk(n-1)CME kn -1 Origine de la somme des carrés Somme des carrés dus au traitement corrigé pour la moyenne Somme des carrés dus à lerreur Total

29 Expérimentation et optimisation29 Tableau partiel danalyse de variances où# d. l.= # de degrés de liberté de la somme des carrés CM= Carré moyen dû à l'origine de la somme des carrés F= le rapport entre CMT r et CME qui suit une loi F Y.j = moyenne du groupe j ou de la configuration j = i=1,2,..., n Y ij / n Y.. = moyenne générale = j=1,2,..., k i=1,2,..., n Y ij / kn SSE= j=1,2,..., k i=1,2,..., n (Y ij - Y.j ) 2 avec SSE / 2 suit une loi 2 k(n- 1)

30 Expérimentation et optimisation30 Tableau partiel danalyse de variances SSR m = j=1,2,..., k n (Y.j - Y.. ) 2 avec SSR m / 2 suit une loi 2 k-1 non centrée. TOTAL= j=1,2,..., k i=1,2,..., n (Y ij - Y.. ) 2 Par le théorème de Cochran, les sommes dues au traitement et à l'erreur sont statistique- ment indépendantes. On rejette l'hypothèse nulle si et seulement si FT r = CMT r / CME> F k-1,k(n-1);1-

31 Expérimentation et optimisation31 Contrastes et intervalles de Scheffé Déf.:On appelle contraste, une fonction paramétrique i ß i a i telle que i ß i = 0. Théorème: Dans le plan à classification simple, les contrastes de la forme i - j, i j sont tous estimables. Dans le plan à classification simple, il y a (k-1) contrastes estimables linéairement indépendants de la forme 1 - j, j = 2, 3,..., k. Tout autre contraste i - j, i j, i 1 peut facilement être généré à partir d'une combinai- son linéaire de ces k-1 contrastes puisque i - j = ( 1 - j ) - ( 1 - i ).

32 Expérimentation et optimisation32 Intervalles de Scheffé Y.1 - Y.j - [2(k-1) F k-1,k(n-1);1- CME /n 1 - j Y.1 - Y.j + [2(k-1) F k-1,k(n-1);1- CME /n j = 2, 3,..., k. Remarques : Il arrive souvent que la construction des intervalles de Scheffé nous permette d'ordonner les effets. Ainsi, par exemple, on pourrait obtenir 1 > 4, 2 > 3, 3 > 6, 4 > 5, 5 > 2, 6 > 7, on a alors : 1 > 4 > 5 > 2 > 3 > 6 > 7. On a alors ordonné les j à un niveau donné.

33 Expérimentation et optimisation33 Intervalles de Scheffé Hicks, C., Fundamental Concepts in the Design of Experiments, New York: Holt, Rinehart and Winston, 1964. Lorsque l'hypothèse nulle est rejetée, quelle est la configuration qui doit être retenue? Une approche (Duncan) consiste à former des groupes de configurations à l'intérieur duquel les configurations sont homogènes (sans différence significative); des configurations de groupes différents sont hétérogènes.

34 Expérimentation et optimisation34 Plan dexpérience à 2 facteurs emboîtés Exemple: étudier l'effet de la concentration en azote d'un engrais chimique sur la croissance de plants de maïs. On dispose d'une série de terrains possédant des caractéristiques géologiques différentes: certains sont sablonneux, d'autres comportent une épaisse couche de terre arable sur un fond de roc, certains sont plutôt rocailleux, etc. Il est évident qu'une concentration donnée d'azote dans notre engrais ne pourra avoir les mêmes effets d'un type de terrain à l'autre. Chacun de ces terrains peut donc être subdivisé en terrains plus petits que nous considérons identiques. On soumettra alors ceux-ci à des engrais de concentrations différentes. Schématiquement, on a:

35 Expérimentation et optimisation35 Plan dexpérience à 2 facteurs emboîtés EXEMPLE

36 Expérimentation et optimisation36 Plan dexpérience à 2 facteurs emboîtés EXEMPLE -Notre expérience comporte 2 facteurs: un facteur A, associé au type de terrain (I types de terrain) un facteur B, associé à la concentration en azote de l'engrais utilisé, comportant J niveaux. -Désignons par Y ijk, la k ième observation du terrain de type i soumis à la concentration d'azote j. - Nous nous intéressons donc à un modèle de la forme Y ijk = u + a i + b j(i) + e ijk i= 1, 2,..., I j= 1, 2,..., J k= 1, 2,..., R

37 Expérimentation et optimisation37 Plan dexpérience à 2 facteurs emboîtés EXEMPLE oùu= effet de moyenne générale a i = effet du terrain de type i b j(i) = effet de la concentration j sur un terrain de type i e ijk = erreur aléatoire inhérente à l'observation Y ijk et i.i.d. selon une loi N(0, 2 ). -Le facteur B est emboîté dans le facteur A car, chaque niveau i de A possède sa propre série d'effets de concentration b j(i), j= 1, 2,..., J. -H 0 :a i = 0pour tout i = 1, 2,..., I b j(i) = 0pour tout i = 1, 2,..., I pour tout j = 1, 2,..., J Le test est effectué à un niveau donné (0.05 par exemple).

38 Expérimentation et optimisation38 Plan dexpérience à 2 facteurs emboîtés EXEMPLE Si nous ne pouvons rejeter H 0, nous pouvons conclure que les différentes configurations n'entraînent pas de différences significatives quant à la mesure de performance. Si nous rejetons l'hypothèse nulle, statistiquement, il existe des différences significatives entre les configurations du système. Pour effectuer ces tests, nous référons à un tableau partiel d'analyse de variances:

39 Expérimentation et optimisation39 Tableau partiel danalyse de variances Expression# d. l.CMF de la somme des carrés SSR m IJ-1CMR m =CMR m SSR m / (IJ-1)CME SSEIJR-IJCME IJR-1 Origine de la somme des carrés Somme des carrés dus au traitement corrigé pour la moyenne Somme des carrés dus à lerreur Total

40 Expérimentation et optimisation40 Tableau partiel danalyse de variances où# d. l.= # de degrés de liberté de la somme des carrés CM= Carré moyen dû à l'origine de la somme des carrés F= le rapport entre CMR m et CME qui suit une loi F Y ij. = k=1,2,..., R Y ij / R Y... = moyenne générale = k=1,2,..., R j=1,2,..., J i=1,2,..., I Y ijk / IJR SSE= k=1,2,..., R j=1,2,..., J i=1,2,..., I (Y ijk - Y ij. ) 2 avec SSE / 2 suit une loi 2 IJR- IJ

41 Expérimentation et optimisation41 Tableau partiel danalyse de variances SSR m = i=1,2,..., I j=1,2,...,J R (Y ij. - Y... ) 2 avec SSR m / 2 suit une loi 2 IJ-1 non centrée. TOTAL= j=1,2,..., k i=1,2,..., n (Y ij - Y.. ) 2 Par le théorème de Cochran, les sommes dues au traitement et à l'erreur sont statistique- ment indépendantes. On rejette l'hypothèse nulle si et seulement si FT r = CMR m / CME> F IJ-1,IJR-IJ;1-

42 Expérimentation et optimisation42 Contrastes et intervalles de Scheffé Sujet plus difficile. Une étude plus complète dépasse le cadre de ce cours.

43 Expérimentation et optimisation43 Procédure de triage des variables de décision qui auront un impact important sur la mesure de performance Lorsqu'il s'agit de simuler des systèmes complexes, nous ne savons pas à priori quelles sont les variables de décision qui auront un impact majeur sur la mesure de performance. Nous devons nous doter d'un moyen efficace pour sélectionner les "bonnes" variables de décision.

44 Expérimentation et optimisation44 Procédure de triage des variables de décision qui auront un impact important sur la mesure de performance A) Une approche consiste à initialiser chaque variable de décision à 2 valeurs extrêmes: la plus basse et la plus élevée. Des tests d'hypothèses nous permettent de déterminer quelles variables de décision ont une influence significative sur la mesure de performance selon les valeurs qu'elles prennent. Soit n le nombre de variables de décision, 2 valeurs pour chaque variable de décision, il s'agit de considérer un plan d'expérience à n facteurs exigeant 2 n simulations (pas de répétitions). TEMPS DE CALCULS TRÈS ÉLEVÉS

45 Expérimentation et optimisation45 Procédure de triage des variables de décision qui auront un impact important sur la mesure de performance B) D'autres approches intermédiaires sont proposées visant à réduire le # de simulations nécessaires. Exemple:Temps d'attente des clients dans une épicerie. Nous devons sélectionner les variables de décision pertinentes: 1.# lignes acceptant seulement les clients avec plus de m items. 2.# lignes expresses. 3.# lignes acceptant n'importe quel client. 4.longueur exigée de la plus longue file d'attente pour ajouter une nouvelle ligne de type 1. 5.m 6.nombre d'emballeurs par ligne. 7.mode de traitement des articles par le caissier. Pour éviter d'effectuer 128 simulations au minimum, on peut par exemple considérer seulement les intéractions entre 2 facteurs à la fois et laisser tomber les intéractions d'ordre plus élevé (3 facteurs et plus) i.e. les considérer comme non significatives.

46 Expérimentation et optimisation46 Recherche dune configuration optimale Lorsque dans les configurations considérées se retrouve une configuration optimale ou presque, la configuration choisie peut être optimale. Mais nous n'avons aucune assurance à ce sujet. En faite, il n'existe pas d'algorithmes en simulation permettant de trouver à coup sûr une configuration optimale. Toutefois, il existe des heuristiques efficaces que l'on peut combiner avec des techniques statistiques. Ce sont des méthodes itératives qui permettent à chaque étape de passer d'une configuration à une meilleure; la configuration obtenue peut être un optimum local ou même un optimum global. La recherche d'un optimum se fait toujours par rapport à une seule mesure de performance.

47 Expérimentation et optimisation47 Recherche dune configuration optimale Nous définissons la fonction f comme suit: R=f(X 1, X 2,..., X n ) où X i représentent les valeurs possibles que peut prendre la i ième variable de décision, n désigne le nombre de variables de décision et R la valeur de la mesure de performance pour des valeurs précises des variables de décision. Le problème consiste à maximiser ou minimiser f parmi les configurations possibles du système. Il n'est pas question d'énumérer toutes les configurations possibles. Nous proposons différentes stratégies.

48 Expérimentation et optimisation48 (A) Recherche dun optimum local 1) Pour tout i = 1, 2,..., n - Fixer la valeur de toutes les variables de décision sauf X i. - Recherche d'un optimum local X i * par rapport à X i. - X i * est la nouvelle valeur de X i. 2) Répéter l'étape 1 tant et aussi longtemps que des changements interviennent. On obtient comme solution: f(X 1 *, X 2 *,..., X n *) f(X 1 *, X 2 *,..., X i,..., X n *) i Le succès de cette approche dépend de la configuration de départ. Note : On doit mentionner que f est une fonction probabiliste et par conséquent, cet algorithme est par nature probabiliste.

49 Expérimentation et optimisation49 (B) Méthodes de direction de descente On détermine une fonction f continue par interpolation à partir des points (X 1, X 2,..., X n, R(X 1, X 2,..., X n )). A l'itération i, soit (X 1, X 2,..., X n ) la configuration courante, - déterminer une direction de descente (D 1, D 2,..., D n ): en se déplaçant dans cette direction, nous pouvons obtenir une "meilleure" configuration. - emprunter cette direction de descente et choisir la "meilleure" configuration (X 1, X 2,..., X n ) dans cette direction. - la configuration (X 1, X 2,..., X n ) sera la configuration courante à l'itération i+1.

50 Expérimentation et optimisation50 (B) Méthodes de direction de descente Critère d'arrêt: à une itération donnée, il n'existe pas de direction de descente i.e. la configuration courante ne peut pas être améliorée. Note: -Les méthodes diffèrent selon la méthode d'interpolation utilisée ou encore, selon la façon de calculer une direction de descente. -L'intégration des techniques d'optimisation et des outils statistiques dans un logiciel de simulation n'est pas chose faite. Pourtant, cela devient nécessaire, le nombre de simulations étant très élevées.

51 Expérimentation et optimisation51 La prise en compte de k mesures de performance Exemple:épicerie (k = 2). 2 mesures de performance:temps d'attente moyen des clients coût relié aux salaires des employés. 2 variables de décision:le nombre de caissiers le nombre d'emballeurs. -Nous pouvons nous poser sensiblement les mêmes questions que précédem- ment. Toutefois, la complexité s'accroît de façon substantielle. -Une étude complète dépasse de beaucoup le cadre de ce cours.

52 Expérimentation et optimisation52 La prise en compte de k mesures de performance Analyse multivariée de la variance Analyse multivariée de la variance. Harris, R. J., A Primer of Multivariate Statistics, New York: Academic Press, 1975. (A) L'évaluation de différentes configurations du système basées sur plusieurs mesures de performance

53 Expérimentation et optimisation53 La prise en compte de k mesures de performance (B) Stratégies pour rechercher une configuration optimale 4 techniques sont proposées: 1) Il s'agit de résoudre k problèmes d'optimisation indépendants avec une seule mesure de performance. Cela donne k configurations "optimales" par rapport à une des mesures de performance. Il faut espérer que l'une d'elles est "dominante". Le plus souvent, ce n'est pas le cas; par exemple, minimiser le temps d'attente des clients et le coût généré par les salaires des employés sont 2 objectifs diamétralement opposés. Il n'existe pas une configuration optimale p/r à chacun de ces 2 objectifs. Cette méthode est de peu d'utilité.

54 Expérimentation et optimisation54 La prise en compte de k mesures de performance 2) Il s'agit de résoudre 1 problème d'optimisation avec une seule mesure de performance tout en contraignant les autres mesures de performance i.e. en leur imposant des bornes de variation. Par exemple, on peut choisir d'optimiser p/r au temps moyen d'attente des clients tout en imposant une borne supérieure au coût généré par les salaires. On peut toujours faire varier cette borne supérieure et examiner l'impact sur le temps moyen d'attente des clients. Il s'agit de résoudre 1 problème d'optimisation avec une seule mesure de performance laquelle est une somme pondérée des k mesures de performance. Il est difficile de construire cette somme pondérée. Les mesures sont souvent définies dans des unités différentes. C'est aussi difficile d'évaluer l'importance d'une mesure p/r aux autres. Comment évaluer la sensibilité de la solution p/r aux poids associés aux mesures de performance? 3)

55 Expérimentation et optimisation55 La prise en compte de k mesures de performance 4) Programmation multicritères lorsqu'on veut optimiser simultanément plusieurs mesures de performance Nos discussions ont porté sur des problèmes déterministes même s'ils sont stochastiques. Nous n'en mesurons pas encore les impacts. CONCLUSION


Télécharger ppt "Expérimentation et optimisation. 2 La puissance des ordinateurs et l'évolution des langages de simulation permettent de plus en plus au gestionnaire qui."

Présentations similaires


Annonces Google