2. Optimisation sans contrainte Fonctions à une seule variable

Slides:



Advertisements
Présentations similaires
de l’algorithme de Viterbi
Advertisements

La Méthode de Simplexe Standardisation
3. Variantes de l’algorithme
2. Méthodes du simplexe et son analyse.
La symétrie centrale (2)
Simplex en 4 Slides – explication:
LE SURPLUS DU CONSOMMATEUR
Génération de colonnes
Problèmes aux limites Généralités
2.5 Champ électrique produit par une distribution continue de charges.
Utilisation des tableaux
                                        République Algérienne Démocratique et Populaire Ministère de l’Enseignement Supérieur et de la Recherche Scientifique.
Méthodes d‘optimisation en finance
Continuité Introduction Continuité Théorème des valeurs intermédiaires
4 Sélection d’un matériau 2/2
Créer une animation simple Gif avec ImageReady.
Chapitre 8 Equations de Slutsky.
Chapitre 4 Symétrie centrale.
Algorithmes Branch & Bound
Heuristiques A. Introduction B. Recherche d ’une branche
Programmation linéaire
CONCAVITÉ Cours 16.
Fonction puissance Montage préparé par : André Ross
Continuité Montage préparé par : André Ross
Calcul Intégral Au XVIIIème siècle, les mathématiciens progressent dans deux domaines séparés : les problèmes des tangentes (et la longueur des arcs) et.
Représentation graphique
Optimisation non linéaire sans contraintes
Gestion de Fichiers Arbres B.
Sections sélectionnées du Chapitre 11
Structures de données IFT-2000
Programmation linéaire en nombres entiers Algorithme de la subdivision successive («Branch and Bound Algorithm»)
Courbes de Bézier.
Théorie fractale Introduction à la géométrie fractale
Génération d’un segment de droite
La corrélation et la régression multiple
1 SQL: Requêtes, Programmation et Triggers Chapitre 5, Sections
Gestion de Fichiers Tri Interne Efficace et Tri Externe.
1 SQL: Requêtes, Programmation et Triggers Chapitre 5, Sections
Corrélation Principe fondamental d’une analyse de corrélation
Somme et intégrale de Riemann
Universté de la Manouba
Optimisation-Identification et Cast3M
RECONNAISSANCE DE FORMES
Fonction partie entière
Géométrie analytique Distance entre deux points.
Les fonctions leurs propriétés et.
Intégrale définie Montage préparé par : André Ross
Technique de points de contrôle: Formes de Bézier
Programmation linéaire en nombres entiers : les méthodes de troncature
l’algorithme du simplexe
CHAPITRE 3: LES NOMBRES.
La firme Les techniques à deux facteurs La demande de facteurs
Programmation linéaire en nombres entiers
Dichotomie Méthode de résolution.
Algorithmes Branch & Bound
STATISTIQUES – PROBABILITÉS
2. Optimisation sans contrainte Fonctions à une seule variable
Structures de données avancées : Concepts du Multidimensionnel D. E ZEGOUR Institut National d ’Informatique.
Chapitre 3: Variables aléatoires réelles continues
Les fonctions de référence
Activités Mentales Classe 5 e Test n°7. Consignes  Chaque question restera un certain temps à l’écran et tu ne devras rien écrire pendant ce temps. 
2. Méthode du simplexe et son analyse.
Résolution des équations différentielles
Correction du devoir 4 Première S Mathématiques. Exercice 1. Après avoir répondu à la question 1., il y a deux écritures possibles pour f (x) : Il faut.
1. Méthode du simplexe et son analyse.
LOIS COURANTES DE PROBABILITES
1. Tri rapide ou Quicksort Principe : La méthode du Quicksort due au C.A. Hoare (1962) utilise les principes généraux de division et équilibrage. 2.
Cours 12 CROISSANCE D’UNE FONCTION. Aujourd’hui, nous allons voir ✓ Croissance et décroissance ✓ Maximum et minimum relatif.
MAXIMUM ET MINIMUM D’UNE FONCTION
1 UE Intro. Optimisation L3 INFO UPSud II. Programmation linéaire en variables entières (ou mixtes)
Transcription de la présentation:

2. Optimisation sans contrainte Fonctions à une seule variable

2.1. Méthodes n’utililisant que les valeurs des fonctions Méthode de Fibonacci Hypothèse: La fonction f est définie sur l’intervalle [a, b] et est unimodal; i.e., f ne possède qu’un seul minimum local dans [a, b]

L’approche consiste – à choisir un certain nombre de points selon une stratégie basée sur les nombres de Fibonacci – à évaluer séquentiellement la valeur de la fonction à ces points – avec l’objectif de réduire la longuer de l’intervalle contenant le minimum local en se basant sur la propriété d’unimodalité de la fonction

Étant données les valeurs de la fonction en deux points de l’intervalle, l’unimodalité permet d’identifier une partie de l’intervalle où le minimum ne peut se retrouver a x1 x2 b a x1 x2 b a x1 x2 b

Choisir deux points x1 et x2 symétrique et à la même distance b Choisir deux points x1 et x2 symétrique et à la même distance de chaque extrémité de l’intervalle [a, b] Choisir le prochain point symétriquement par rapport au point déjà dans l’intervalle résultant.

Choisir le prochain point symétriquement par rapport x3 x1 x4 x2 b Choisir le prochain point symétriquement par rapport au point déjà dans l’intervalle résultant.

Stratégie optimale de sélection des points d’évaluation Notation: d1 = b – a, la longueur de l’intervalle initial dk = longueur de l’intervalle après avoir utilisé k points d’évaluation {Fk} la suite des nombres de Fibonacci définie comme suit: F0 = F1 = 1 Fn = Fn-1 + Fn-2 n = 2, 3, …. {1, 1, 2, 3, 5, 8, 13, 21, …}

Stratégie optimale de sélection des points d’évaluation Supposons que nous décidons au départ d’utiliser N points d’évaluation. Procédure se résume comme suit: Les deux premiers points sont choisis symétriques à une distance de chacune des extrémités de l’intervalle [a, b]. Une partie de l’intervalle est éliminée en se basant sur l’unimodalité de la fonction. Il en résulte un intervalle de longueur . Le troisième point est choisi symétriquement par rapport au point déjà dans l’intervalle résultant. Ceci engendre un intervalle de longueur

Stratégie optimale de sélection des points d’évaluation Les deux premiers points sont choisis symétrique à une distance de chacune des extrémités de l’intervalle [a, b]. Une partie de l’intervalle est éliminée en se basant sur l’unimodalité de la fonction. Il en résulte un intervalle de longueur . Le troisième point est choisi symétriquement par rapport au point déjà dans l’intervalle résultant. Ceci engendre un intervalle de longueur En général le point suivant est choisi symétriquement par rapport au point déjà dans l’intervalle résultant.

En général le point suivant est choisi symétriquement par rapport au point déjà dans l’intervalle résultant. Note: Selon iii. , le dernier point N devrait être placé au centre de l’intervalle superposé à celui s’y trouvant déjà. En effet, puisqu’en utilisant cette stratégie de sélection des points d’évaluation, nous avons que

Note: Selon iii. , le dernier point N devrait être placé au centre de l’intervalle superposé à celui s’y trouvant déjà. En effet, puisqu’en utilisant cette stratégie de sélection des points d’évaluation, nous avons que

En utilisant cette stratégie de sélection des points d’évaluation, et il est possible de démontrer que est le plus petit intervalle qu’il est possible d’obtenir en utilisant N points d’évaluations

Ainsi, lorsque le nombre de points d’évaluation N devient très grand En utilisant cette stratégie de sélection des points d’évaluation, Ainsi, lorsque le nombre de points d’évaluation N devient très grand pour tendre vers l’infini, la suite des valeurs plus rapidement qu’en utilisant toute autre stratégie.

1 N = 5 {1, 1, 2, 3, 5, 8}

1 N = 5 {1, 1, 2, 3, 5, 8}

1 N = 5 {1, 1, 2, 3, 5, 8}

1 N = 5 {1, 1, 2, 3, 5, 8}

Méthode de la section dorée ( nombre d’or τ = 1.618…) La méthode de la section dorée utilise la même stratégie que la méthode de Fibonacci pour selectionner les points d’évaluation, mais le nombre de points d’évaluation n’est pas spécifié au départ. Pour spécifier les deux premiers points, nous procédons comme dans la méthode de Fibonacci en les prenant symétriques à une distance de chaque extrémité en considérant que N → ∞.

La méthode de la section dorée utilise la même stratégie que la méthode de Fibonacci pour selectionner les points d’évaluation, mais le nombre de points d’évaluation n’est pas spécifié au départ. Pour spécifier les deux premiers points, nous procédons comme dans la méthode de Fibonacci en les prenant symétrique à une distance de chaque extrémité en considérant que N → ∞.

Méthode de bisection (ou de bipartition) Méthode pour identifier le 0 d’une fonction g(x) sur un intervalle [a, b]. Si , alors la méthode de bisection peut être utilisée pour identifier un point où la dérivée d’une fonction s’annule. Hypothèse: Sur l’intervalle [a, b], la fonction g est continue et telle que g(a) g(b) < 0 (i.e.,

Principe de la méthode: à chaque itération, réduire la longueur de l’intervalle contenant en la divisant en deux.

Puisque par hypothèse g est continue sur [a, b] et g(a) g(b) < 0, – g change de signe entre a et b – g s’annule en un point entre a et b – la méthode génère une suite d’intervalles de longueur décroissante jouissant de la même propriété La suite des valeurs des longueurs des intervalles est la suivante:

g a c b

g a c b

g c a b

g a b

La suite des valeurs des longueurs d’intervalle est la suivante:

Hypothèse g(a) g(b)<0 est essentielle c b

Hypothèse g(a) g(b)<0 est essentielle c b

Hypothèse g(a) g(b)<0 est essentielle c b

Hypothèse g(a) g(b)<0 est essentielle Uniquement l’intervalle initial contient la racine a b

2.2 Méthode utilisant les dérivées Méthode de Newton Rappel: Formule de Taylor d’ordre n

Méthode de Newton Hypothèses:

qk f xk

qk f xk+1 xk

Convergence de la méthode de Newton

Convergence de la méthode de Newton

Note: Méthode également utilisée pour déterminer un point où la fonction s’annule. Il suffit de considérer la fonction

g

Importance de l’hypothèse que x0 soit suffisemment près de x*

Importance de l’hypothèse que x0 soit suffisemment près de x*

Importance de l’hypothèse que x0 soit suffisemment près de x*

Importance de l’hypothèse que x0 soit suffisemment près de x*

Importance de l’hypothèse que x0 soit suffisemment près de x*

Importance de l’hypothèse que x0 soit suffisemment près de x*

Méthode de la fausse position Hypothèses:

Convergence de la méthode de la fausse position

Importance de l’hypothèse que x0 et x1 soit suffisemment près de x*