Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE.

Slides:



Advertisements
Présentations similaires
Eléments d'algèbre linéaire
Advertisements

Unité #2 Analyse numérique matricielle Giansalvo EXIN Cirrincione.
3. Analyse et estimation du mouvement dans la vidéo
Corrélations et ajustements linéaires.
Modélisation des systèmes non linéaires par des SIFs
Optimisation dans les réseaux Recherche Opérationnelle GC-SIE.
Chapitre VII :Commande par retour d’état
Recherche opérationnelle
PROGRAMMATION SCIENTIFIQUE EN C
Plus courts chemins On présente dans ce chapitre un problème typique de cheminement dans les graphes : la recherche d'un plus court chemin entre deux sommets.
Optimisation en nombres entiers
Optimisation non linéaire sans contraintes
de résolution des équations normales, ou d ’observations
Concepts avancés en mathématiques et informatique appliquées
Rappel... Opérations élémentaires sur les matrices:
Optimisation linéaire
Chapitre 3bis Applications linéaires et Matrices
Examen partiel #2 Mercredi le 15 novembre de 13h30 à 15h20
Optimisation en nombres entiers Recherche Opérationnelle GC-SIE.
Rappel... Solution itérative de systèmes linéaires (suite et fin).
Optimisation non linéaire sans contraintes
Optimisation non linéaire sans contraintes
Techniques d’optimisation
Rappel... Caractérisation des matrices inversibles: Matrices bloc.
Les réseaux de neurones
Courbes de Hermite Michael E. Mortenson, Geometric Modeling. Wiley, 1997, 523p.
Optimisation en nombres entiers Recherche Opérationnelle GC-SIE.
Optimisation dans les réseaux
Optimisation dans les réseaux
Optimisation dans les réseaux
Optimisation linéaire
Optimisation linéaire
Optimisation linéaire
Optimisation linéaire
Optimisation non linéaire sans contraintes
Optimisation-Identification et Cast3M
Régression linéaire (STT-2400)
Rappel... Matrices bloc. Décomposition des matrices:
La régression multiple
Régression linéaire (STT-2400)
l’algorithme du simplexe
Méthodes de prévision (STT-3220) Section 6 Exemple: Prévisions dans un modèle AR(1) Version: 18 décembre 2008.
Cours du 25 octobre Mardi le 24 octobre
MAXIMISER les RESULTATS
Conditions aux Frontières Ouvertes
DEA Perception et Traitement de l’Information
ASI 3 Méthodes numériques pour l’ingénieur
La décomposition en valeurs singulières: un outil fort utile
ASI 3 Méthodes numériques pour l’ingénieur
ASI 3 Méthodes numériques pour l’ingénieur
Présentation du marché obligataire
Christelle Scharff IFI 2004
Probabilités et Statistiques Année 2010/2011
Réseaux de neurones à base radiale
CHAPITRE III Calcul vectoriel
UN ALGORITHME PERFORMANT DE CALCUL DES ERREURS DE FORME
Équations de plans.
Chapitre 4 Linéarisation et optimisation sous contrainte
6. Problème de flot à coût minimum.
ASI 3 Méthodes numériques pour l’ingénieur
Rappels Variables nominales :
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Approximation linéaire –Méthode du moindre carré u Travail pratique.
Méthode des moindres carrés (1)
Chapitre 4 Variables aléatoires discrètes
Interpolation et Approximation
STATISTIQUES.
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Approximation linéaire –Méthode du moindre carré u Exemple.
1. Méthode du simplexe et son analyse.
Pierre Joli Cours de Mathématique Pierre Joli
MECANIQUE DES MILLIEUX CONTINUS ET THERMODYDAMIQUE SIMULATIONS.
Transcription de la présentation:

Optimisation non linéaire sans contraintes Recherche opérationnelle GC-SIE

Moindres carrés

Michel Bierlaire3 Moindres carrés g i : IR m IR r(i) est continûment différentiable, i=1,…,m On a souvent r(i) = 1.

Moindres carrésMichel Bierlaire4 Moindres carrés Exemple : Estimation des paramètres dun modèle Soit un modèle mathématique z=h(x,y) x est le vecteur des paramètres inconnus. y est le vecteur dentrée du modèle. z est le vecteur de sortie du modèle. On dispose de m observations (y i,z i )

Moindres carrésMichel Bierlaire5 Moindres carrés Question : quelles sont les valeurs des paramètres telles que le modèle reproduise le mieux les observations ?

Moindres carrésMichel Bierlaire6 Moindres carrés Exemple : On veut mesurer la résistivité du cuivre. On dispose dune barre de 1m de cuivre, de section 1cm 2. Lexpérience consiste à envoyer des courants de diverses intensités et de mesurer la différence de potentiel. Le modèle mathématique est donné par la loi dOhm.

Moindres carrésMichel Bierlaire7 Moindres carrés Paramètre inconnu : résistance R Entrée du modèle : intensité I Sortie du modèle : diff. potentiel V Modèle mathématique : V = R I = ( /S) I où est la longueur, S la section et la résistivité du cuivre.

Moindres carrésMichel Bierlaire8 Moindres carrés Données récoltées :

Moindres carrésMichel Bierlaire11 Moindres carrés Réseaux de neurones. Modèle spécifié par un système multi-niveaux. Le niveau consiste en n k unités dactivitation ou neurone. Chaque unité dactivation est une relation entrée-sortie :IR IR

Moindres carrésMichel Bierlaire12 Moindres carrés + x j k+1 xskxsk uskusk u0ku0k

Moindres carrésMichel Bierlaire13 Moindres carrés La sortie de la j ième unité dactivation du niveau k+1 est notée x j k+1. Lentrée est une fonction linéaire des sorties du niveau k. Donc

Moindres carrésMichel Bierlaire14 Moindres carrés Les u k s sont appelés « poids » Ce sont les paramètres à déterminer. Pour un ensemble de paramètres donnés, et si N est le nombre de niveaux, à chaque vecteur dentrée x 0 du niveau 0 correspond un vecteur de sortie x N du niveau N.

Moindres carrésMichel Bierlaire15 Moindres carrés Le réseau de neurones peut donc être considéré comme un modèle mathématique z=h(x,y) où – x est le vecteur de poids – y est le vecteur dentrées au niveau 0 – z est le vecteur de sorties au niveau N

Moindres carrésMichel Bierlaire16 Moindres carrés La phase dentrainement du réseau, ou phase dapprentissage peut donc être considérée comme la résolution dun problème de moindres carrés. Exemples typiques de fonctions dactivation : Fonction sigmoidale : Fonction hyperbolique tangente :

Moindres carrésMichel Bierlaire17 Moindres carrés Le problème dentrainement de réseaux neuronaux est souvent très compliqué. Les fonctions de coûts associées sont non-convexes et possèdent souvent des minima locaux multiples. Exemple à deux paramètres.

Source: Bertsekas (1995) Nonlinear programming, Athena Scientific

Moindres carrésMichel Bierlaire19 Gauss-Newton Idée Travailler sur g et non sur f. Linéarisation de g :

Moindres carrésMichel Bierlaire20 Gauss-Newton Minimiser la norme de m(x)

Moindres carrésMichel Bierlaire21 Gauss-Newton Si f(x) = ½ ¦¦m(x)¦¦ 2, alors Le minimum est atteint en si la matrice est inversible.

Moindres carrésMichel Bierlaire22 Gauss-Newton Une itération Gauss-Newton pure est g(x k )g(x k ) est le gradient de ½¦¦g(x)¦¦ 2 en x k Si g(x k ) g(x k ) T est définie positive, nous avons donc une direction de descente.

Moindres carrésMichel Bierlaire23 Gauss-Newton Tout comme la méthode de Newton pure pour le cas général, la méthode de Gauss-Newton pure pour les moindres carrés peut ne pas converger. Solution :

Moindres carrésMichel Bierlaire24 Gauss-Newton k est choisi par la règle dArmijo. k est une matrice diagonale telle que g(x k ) g(x k ) T + k soit défini positif. Méthode de Levenberg-Marquardt : k = multiple de lidentité

Moindres carrésMichel Bierlaire25 Gauss-Newton Cas linéaire g(x)=Cx-z g(x) = C T x k+1 = x k -(C T C) -1 C T (Cx k -z) = (C T C) -1 C T z k La solution est obtenue en une itération Note: le système déquations C T Cx=C T z est appelé équations normales.

Moindres carrésMichel Bierlaire26 Gauss-Newton Relation avec la méthode de Newton Soit g:IR n IR m f(x)= ½ ¦¦g(x)¦¦ 2

Moindres carrésMichel Bierlaire27 Gauss-Newton Gauss-Newton = Newton en négligeant le second terme

Moindres carrésMichel Bierlaire28 Régression orthogonale Moindres carrés Régression orthogonale

Moindres carrésMichel Bierlaire29 Régression orthogonale (y,h(x,y)) (y i,z i ) min x min y (y i -y) 2 +(z i -h(x,y)) 2

Moindres carrésMichel Bierlaire30 Régression orthogonale Notes : Cette régression est utilisée lorsque des erreurs sont présentes aussi dans les entrées du modèle. On suppose que les erreurs dans les entrées et les erreurs dans les sorties sont indépendantes, de moyenne nulle. Même si le modèle est linéaire, le problème de moindres carrés nest pas linéaire.

Moindres carrésMichel Bierlaire31 Régression orthogonale Exemples : – Résistivité du cuivre Moindres carrés : r = Régression orthogonale : – Modèle sphérique : z = x 1 + [x 2 2 -(y-x 3 ) 2 ] ½

Moindres carrésMichel Bierlaire32 Régression orthogonale Moindres carrés : x 1 = x 2 = x 3 = Orthogonale : x 1 = x 2 = x 3 = Modèle réel : x 1 = 3 x 2 = 4 x 3 = 3