PROGRAMMATION SCIENTIFIQUE EN C

Slides:



Advertisements
Présentations similaires
PROGRAMMATION SCIENTIFIQUE EN C
Advertisements

PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C PRO Résolution de système d’équations non- linéaires (racines d’équations) u Méthode de la bissection u Analyse.
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Approximation linéaire –Méthode du moindre carré u Exemple.
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C PRO Résolution de système d’équations non-linéaires (racines d’équations) u Introduction u Méthode de recherche.
Courbes d'Interpolation Interpolation de Lagrange, et Interpolation B-spline.
L’ESPRIT DU NOUVEAU PROGRAMME. SERIE SCIENCES ET TECHNOLOGIES DU MANAGEMENT ET DE LA GESTION 1 Document élaboré dans le cadre du cercle de réflexion académique.
Comparing color edge detection and segmentation methods Projet TIM.
Synthèse TP 2 Codeblock 1 Les objectifs de ce tp sont :
Outils de Recherche Opérationnelle en Génie MTH 8414A
Outils de Recherche opérationnelle en Génie MTH 8414
Analyse, Classification,Indexation des Données ACID
Pierre Joli Cours de Mathématique Pierre Joli
6. Analyse postoptimale.
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap5: Les méthodes de résolution exactes.
Algorithmique Avancée et Complexité Chap3:Diviser pour Régner
Projet Analyse numérique – 2
Technologies de l’intelligence d’affaires Séance 13
Simulation des nanostructures à base de nanorubans de graphène
Techniques d’Optimisation Chapitre 3: Programmation en 0-1 (bivalente)
Programmation linéaire et Recherche opérationnelle Licence d’Econométrie Professeur Michel de Rougemont
Université Abou Bakr Belkaid Faculté des Sciences Département d’informatique Algorithmique Avancée et Complexité Chap7: Les méthodes de résolution exactes.
République Algérienne Démocratique et Populaire Ministère de l'Enseignement Supérieur et de la Recherche Scientifique Université Saad.
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
La méthode du simplexe. 1) Algorithme du simplexe  Cet algorithme permet de déterminer la solution optimale, si elle existe, d’un problème de programmation.
Modélisation Spatio-temporelle de la pluviométrie " Application du prédicteur Filtre de Kalman":Cas du bassin versant de Cheliff -Algérie- Présentée par Samra Harkat
Dérivation et intégration
Pierre Dumouchel 20 juillet 2009
Polytech'Nice-Sophia, Département Sciences Informatiques Cours de 4 ème année : Commande par Ordinateur. semaine 5/6, 29/04/2018Page 1 Commande optimale.
Polytech'Nice-Sophia, Département Sciences Informatiques Cours de 4 ème année : Commande par Ordinateur. semaine 5/6, 04/09/2018Page 1 Commande optimale.
© 2005, Michel Cloutier La gestion des stocks – La gestion de l’incertitude Calcul du stock de sécurité.
Résolution d’un problème de diffusion 3D
OPTIMISATION 1ère année ingénieurs
M. Moumnassi, S. Bordas, R. Figueredo, P. Sansen
La fonction RATIONNELLE.
Résolution d’un problème de diffusion 1D
Convergence d’algorithme
Variable Neighborhood Descent (VND) Réalisée par Nadia Sassi Eya baghdedi AU
2. Méthode du simplexe et son analyse.
MATHÉMATIQUES FINANCIÈRES I
CALCUL DES DERIVEES Techniques de calcul scientifique
Dynamique et Jacobien Je me déplace!.
Reconnaissance de formes: lettres/chiffres
l’algorithme du simplexe
SUJETS SPÉCIAUX EN INFORMATIQUE II
CSI 3505 Algorithmes Voraces
Recherche de zero d'une fonction MARMAD ANAS MPSI -2.
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
Convergence d’algorithme
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
Travaux Pratiques de physique
PROGRAMMATION SCIENTIFIQUE EN C
INTELLIGENCE ARTIFICIELLE
PROGRAMMATION SCIENTIFIQUE EN C
INTELLIGENCE ARTIFICIELLE
Résolution des Équations Différentielles Nicolas Holzschuch Cours d’Option Majeure 2
Question 1 Développer 5(x + 3).
INTELLIGENCE ARTIFICIELLE
PROGRAMMATION SCIENTIFIQUE EN C
PROGRAMMATION SCIENTIFIQUE EN C
Création d une application pour la détection des personnage par les empreintes digitale 1.
Transcription de la présentation:

PROGRAMMATION SCIENTIFIQUE EN C

Résolution de système d’équations non-linéaires (racines d’équations) Méthode de Newton-Raphson Convergence de la méthode Méthode de la sécante Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires)

Méthodes de Newton-Raphson Cette méthode converge plus rapidement que la méthode de bissection La méthode de Newton est basée sur l’utilisation de la portion linéaire de la série de Taylor

Rappel: Approximation de fonction par série de Taylor Le développement en série de Taylor permet de faire l’approximation de fonctions suffisamment différentiables Nous pouvons évaluer la valeur d’une fonction dans le voisinage d’un point de référence par:

Rappel: Approximation de fonction par série de Taylor L’erreur de troncature découlant du développement en série de Taylor avec n termes dérivés est donnée avec sa borne supérieure par

Rappel: Approximation de fonction par série de Taylor Pour la fonction cosinus avec a = 0 et un intervalle des valeurs de h [0,/2] et n=4

Rappel: Approximation de fonction par série de Taylor Pour la fonction cosinus, l’erreur de troncature est bornée par le premier terme de la série omis, cette erreur de troncature est bornée par (n=4)

Méthodes de Newton-Raphson Nous avons une racine quand f(x) = 0, alors

Méthodes de Newton-Raphson Nous pouvons alors estimer une nouvelle valeur de la racine (x1) à partir d’une estimation initiale x0. Nous pouvons alors raffiner l’estimation de la valeur de la racine (x1) de façon itérative:

Méthodes de Newton-Raphson Si f(x) est linéaire nous obtenons la solution au premier essai Si f(x) est non linéaire, la série de Taylor est seulement valide pour de petits x Les termes non linéaires tronqués de la série de Taylor influence la précision de la solution

Méthodes de Newton-Raphson À partir d’une estimation initiale d’une racine x0 nous calculons une nouvelle estimation x1 et ce itérativement jusqu’à l’obtention de la solution La nouvelle estimation xi+1 est toujours estimée à partir de la dernière estimation xi.

Méthodes de Newton-Raphson

Méthode de Newton-Raphson Algorithme de Newton-Raphson NEWTON_RAPHSON(float x0, int nbiterMAX, float delta, float eps) v = f(x0) nbiter = 0 imprimer nbiter,x0,v deltax1x0 = MAXFLOAT TANT QUE nbiter<nbiterMAX ET deltax1x0 > delta ET |v| > eps FAIRE x1 = x0-v/f’(x0) v = f(x1) imprimer nbiter, x1,v deltax1x0 = x1- x0 x0 = x1 nbiter = nbiter + 1 FIN TANT QUE

Convergence de la méthode Dans certains cas l’algorithme de Newton ne converge pas f ’(xi) -> 0

Convergence de la méthode Dans certains cas l’algorithme de Newton ne converge pas f (xi) / f’(xi) = -f (xi+1) / f’(xi+1)

Convergence de la méthode Dans certains cas l’algorithme de Newton ne converge pas f (xi) / f’(xi) = -f (xi+1) / f’(xi+1)

Convergence de la méthode Dans certains cas l’algorithme de Newton ne converge pas (ou converge lentement) f’(xi) >>> f(xi)

Méthode de la sécante La seule différence avec la méthode de Newton-Raphson réside dans le calcul numérique de la dérivée f’(x) Une nouvelle estimation de la racine xi+1 est déduite à partir des valeurs de la fonction f(xi) et f(xi-1) et des estimations précédentes des racines xi et xi-1.

Méthode de la sécante La valeur de la pente f’(x) est alors donnée par La nouvelle estimation de la racine est donnée par

Méthode de la sécante

Méthode de la sécante Algorithme de la sécante SECANTE(float x0, float x1, int nbiterMAX, float delta, float eps) u = f(x0) v = f(x1) nbiter = 0 imprimer nbiter,x0,u nbiter++ imprimer nbiter,x1,v deltax1x0 = MAXFLOAT TANT QUE nbiter<nbiterMAX ET deltax1x0 > delta ET |v| > eps FAIRE SI |u| < |v| ALORS Permuter x0 et x1 , u et v FIN SI ……

Méthode de la sécante Algorithme de la sécante TANT QUE nbiter<nbiterMAX ET deltax1x0 > delta ET |v| > eps FAIRE SI |u| < |v| ALORS /* POUR ÉVITER LA DIVERGENCE */ Permuter x0 et x1 , u et v FIN SI s = (x1-x0)/(v-u) /* = 1/f ’(x1) */ x0 = x1 u = v x1 = x0-v*s v = f(x1) imprimer nbiter, x1,v deltax1x0 = x1- x0 nbiter = nbiter + 1 FIN TANT QUE

Exemple de détection de zéros de fonctions Utilisation des méthodes de Newton et de la sécante

Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires) Cette méthode consiste à résoudre simultanément le système: f(x, y) = 0 g(x,y) = 0 Si nous devons trouver les 0s de N fonctions de N variables xi, pour i = 1, 2, 3 …. N

Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires) Si les fonctions Fi sont différentiables au voisinage de x, nous pouvons alors estimer les valeurs de Fi au voisinage de x en utilisant le développement en série de Taylor: Sous forme matricielle: Jij est la matrice Jacobienne

Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires) Matrice Jacobienne (gradient) Matrice Jacobienne Gradient

Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires) Si Nous pouvons alors déduire un système d’équations linéaires dont la solution correspond aux termes corrections δx qui poussent chaque fonction plus proche de 0 et ce simultanément: La solution δx permet de mettre à jour le vecteur x

Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires) Cette approche pourrait aussi être utilisée pour minimiser une fonction En résolvant le système:

Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires) Posons: Sachant que F(x) peut être approximée au voisinage de x par le développement en série de Taylor: Le terme f’() devient alors: Matrice Hessienne

Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires) Une matrice Hessienne (Laplacienne) et une matrice dont les termes sont les dérivées partielles d’ordre 2

Méthode de Newton-Raphson (racines de systèmes d’équations non-linéaires) La solution donnant les corrections δx est obtenue en résolvant le système: H(x) δx = –F(x) δx