La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Optimisation. Définition zLoptimisation dun problème ou dune fonction consiste à chercher la valeur des variables de la fonction qui minimise (ou qui.

Présentations similaires


Présentation au sujet: "Optimisation. Définition zLoptimisation dun problème ou dune fonction consiste à chercher la valeur des variables de la fonction qui minimise (ou qui."— Transcription de la présentation:

1 Optimisation

2 Définition zLoptimisation dun problème ou dune fonction consiste à chercher la valeur des variables de la fonction qui minimise (ou qui maximise) sa valeur. zLoptimisation est généralement un problème compliqué, et il existe de multiples techniques, dont lutilisation doit être adapté au type du problème.

3 Caractérisation des techniques doptimisation zOptimisation globale/locale yLoptimisation globale consiste à chercher le maximum de la fonction sur lensemble de définition yLoptimisation locale consiste à chercher le maximum de la fonction au voisinage dun point. zMéthode déterministe/stochastique yUne méthode stochastique parcourt lespace de recherche de façon « aléatoire ». Deux exécutions successives peuvent donner deux résultats différents. yUne méthode déterministe parcourt toujours lespace de recherche de la même façon.

4 x 2 +y 2

5

6

7

8

9

10

11

12

13

14 Méthode de la dérivée zLorsque lon sait calculer explicitement les zéros de la dérivée (ou du gradient), on sait que f(X)=0 est une condition nécessaire pour que X soit un point extrémal hors des frontières de lespace de définition. zCette méthode ne fonctionne que pour des fonctions analytiques simples.

15 Méthodes déterministes locales: le gradient Soit f(X) fonction dun vecteur X, à valeurs réelles, et son gradient f(X). On calcule la suite: X n+1 = X n - a f(X n ), a>0 Le choix de a est idéalement fait en minimisant pour a>0: G(a)=f(X n – a f(X n )) Ceci nest généralement pas possible, et on utilise pour trouver a des méthodes approchées.

16 Méthodes déterministes locales dordre 2 zPour accélérer la descente, on utilise les informations apportées par la dérivée seconde de la fonction (le Hessien pour les fonctions à plusieurs variables) zCes méthodes nécessitent de calculer la dérivée et le Hessien simultanément.

17 Méthodes déterministes locales dordre 2 zf(y) = f(x) + f(x) (y-x) + ½ f(x) (y-x) 2 + d zEn minimisant la forme quadratique en y: yf(x)+f(x)(y-x)=0 soit y = x – f(x)/f(x) zAlgorithme: yx n+1 = x n – f(x n ) / f(x n ) zMéthode connue en général sous le nom de méthode de Newton. zSa convergence est plus rapide que la méthode de gradient.

18 Méthodes déterministes locales dordre 2 (Newton)

19 Méthodes déterministes locales: BFGS zBFGS est une méthode qui approxime la matrice du hessien par analyse des gradients successifs zElle ne nécessite que la connaissance du gradient. zElle est plus rapide que le gradient, et moins rapide que la méthode de Newton zCest une méthode très utilisée en pratique.

20 BFGS

21 Méthodes locales: le simplexe de Nelder-Mead zMéthode travaillant sur un polytope: pour une fonction de n variables, on choisit n+1 points et on les fait évoluer par extension et contraction. zMéthode qui ne nécessite pas le calcul du gradient ou du hessien, et donc très pratique sur les fonctions complexes. zLes preuves de convergence sont peu claires zLalgorithme est simple et pratique.

22 Le simplexe de Nelder- Mead zChoix de n+1 points (x 1,..x n+1 ) zTri du simplexe: f(x 1 )

23 Nelder Mead

24 Méthodes locales (BFGS sur Griewank)


Télécharger ppt "Optimisation. Définition zLoptimisation dun problème ou dune fonction consiste à chercher la valeur des variables de la fonction qui minimise (ou qui."

Présentations similaires


Annonces Google