Rappel... Systèmes dynamiques: discrets; continus.

Slides:



Advertisements
Présentations similaires
Eléments d'algèbre linéaire
Advertisements

Les matrices.
VII) Formalisme Quantique
Unité #1 Analyse numérique matricielle Giansalvo EXIN Cirrincione.
Calcul numérique (avec Maple)
Encadrés: Chapitre 13 Distances
Cours du 20 septembre Exceptionnellement, le cours prévu pour le mercredi 20 septembre se donnera Mardi le 19 septembre de 13h30 à 15h20 à la salle 1112.
Géométrie vectorielle
Rappel... Sous-espaces de Rn: Définition;
VI – Rang d’une matrice Mots clés : Rang.
indépendance linéaire
Transformations Montage préparé par : S André Ross
ASI 3 Méthodes numériques pour l’ingénieur
Algèbre vectorielle Montage préparé par : André Ross
Rappel... Opérations élémentaires sur les matrices:
Horloge hélio-caustique de temps moyen
1.2 COMPOSANTES DES VECTEURS
Systèmes d’équations linéaires
Chapitre 3bis Applications linéaires et Matrices
Examen partiel #2 Mercredi le 15 novembre de 13h30 à 15h20
Densité des N-uplets pythagoriciens
Rappel... Solution itérative de systèmes linéaires (suite et fin).
7.1 TRANSFORMATION LINÉAIRE Cours 19. Au dernier cours nous avons vus Le déterminant dune matrice carré Les propriétés du déterminant La matrice adjointe.
Une visite guidée dans le monde des ondelettes
MODULE 11 Mathématiques SN Les VECTEURS
Produit mixte Montage préparé par : André Ross
2.1 LONGUEURS ET DISTANCES Cours 4 1.
Espaces vectoriels Montage préparé par : S André Ross
Vers la dimension 3. La géométrie dans l'espace ne fait qu'étendre les concepts qui vous sont familiers en dimension 2 à la dimension 3. Le plus difficile.
Introduction aux matrices : exemples en dynamique de population
Exemple en dynamique de population
Chapitre 4 Réduction des endomorphismes
Examen partiel #3 Mercredi le 15 décembre de 15h30 à 17h20
Rappel... Formes échelon et échelon réduit Pivots Span
La corrélation et la régression multiple
5.1 SYSTÈME DÉQUATIONS LINÉAIRES Cours 13. Au dernier cours nous avons vus Léquations vectoriel et léquation normale dun plan. Lintersection de deux plans.
6.1 LE LANGAGE MATRICIEL Cours 16. Aujourdhui, nous allons voir La définition dune matrice Plusieurs définitions de matrice particulière La somme de matrices.
1.1 LES VECTEURS GÉOMÉTRIQUES
Optimisation linéaire
Mathématiques SN Les VECTEURS Réalisé par : Sébastien Lachance.
Les fonctions.
Géométrie analytique Distance d’un point à une droite.
Messages Pas de dépannage mardi le 26 à 11h30. Achat de groupe de Matlab version étudiante?
2.2 PRODUIT SCALAIRE ET CALCUL D’ANGLES
Rappel... Matrices bloc. Décomposition des matrices:
Géométrie analytique Distance d’un point à une droite.
Transformations linéaires et sous-espaces associés
Sous-espaces vectoriels engendrés
Cours du 25 octobre Mardi le 24 octobre
Rappel... Diagonalisation. Transformations linéaires.
Examen partiel #1 Mercredi le 4 octobre de 13h30 à 15h20
ASI 3 Méthodes numériques pour l’ingénieur
Rappel... Valeurs propres et vecteurs propres. Définitions;
Cours de mathématiques économiques
L’endomorphisme le plus simple est l’ homothétie
ASI 3 Méthodes numériques pour l’ingénieur
8.1 LES NOMBRES COMPLEXES cours 26. Avec la venue de: Doigts Dettes Tartes Distances.
Problèmes de parallélisme Problèmes d’orthogonalité
CHAPITRE III Calcul vectoriel
OUTILS MATHEMATIQUES POUR LES SII
7.4 VECTEURS PROPRES Cours 22. Au dernier cours nous avons vus ✓ Les cisaillements ✓ Les projections orthogonales ✓ Les projections obliques.
Calendrier (sur MathSV)
Probabilités et Statistiques
Analyse de données Cours 3 Analyse en composantes principales (ACP)
Structure de groupe Def: un groupe est un ensemble (G,*) où
1.1 LES VECTEURS GÉOMÉTRIQUES
Pierre Joli Cours de Mathématique Pierre Joli
L’électrostatique dans le vide
ACP visualisation Représentation graphique: projection dans un plan de n individus à p caractères Un individu est un point d’un espace à p dimensions.
GEOMETRIE VECTORIELLE
Transcription de la présentation:

Rappel... Systèmes dynamiques: discrets; continus. (valeurs propres complexes)

Aujourd’hui Orthogonalité. Produit scalaire, module; Ensembles orthogonaux.

13. Orthogonalité L’équation Ax = b n’a souvent pas de solution. On cherche alors une solution telle que la distance entre A et b soit la plus petite possible. Distance:  (.)2

Géométriquement d < d1 Orthogonalité x d < d2 d1 d d2 x1 x2

Produit scalaire, module et orthogonalité Nous allons reprendre des concepts qui nous sont très familiers dans R2 et R3, soit la distance, la longueur et l’orthogonalité (« perpendicularité »), et les placer dans le contexte de Rn. Vecteurs dans Rn

Produit scalaire Le produit scalaire de deux vecteurs, u et v, est donné par:

Produit scalaire (suite) Processeurs DSP (TMS320). Le résultat est un scalaire. En anglais: dot product, inner product.

Propriétés du produit scalaire Soit u, v et w des vecteurs dans Rn, et soit c un scalaire. Alors a. u . v = v . u b. (u + v) . w = u . w + v . w c. (cu) . v = c(u . v) = u . (cv)

Propriétés du produit scalaire (suite) Soit u, v et w des vecteurs dans Rn, et soit c un scalaire. Alors d. u . u  0, et u . u = 0 si et seulement si u = 0 e.

Module d’un vecteur Le module d’un vecteur v est le scalaire ||v||  0 défini par: et ||v||2 = v . v

Distance entre deux vecteurs Pour des vecteurs u et v dans Rn, la distance entre u et v, qu’on écrit dist(u,v), est le module du vecteur u - v. Autrement dit: dist(u,v) = ||u - v||

Vecteurs orthogonaux u ||u - v|| v ||u - (-v)|| -v

Orthogonalité Deux vecteurs u et v dans Rn sont orthogonaux (l’un par rapport à l’autre) si u . v = 0.

Théorème de Pythagore Deux vecteurs u et v sont orthogonaux si et seulement si ||u + v||2 = ||u||2 + ||v||2

Complément orthogonal 1. Si un vecteur z est orthogonal à tous les vecteurs d’un sous-espace W, on dit que z est orthogonal à W. 2. L’ensemble de tous les vecteurs z orthogonaux à un sous-espace W est appelé le complément orthogonal de W et est dénoté par W.

Propriétés du complément orthogonal 1. Un vecteur x est dans W si et seulement si x est orthogonal à chacun des vecteurs d’un ensemble engendrant W. 2. W est un sous-espace de Rn.

Sous-espaces fondamentaux d’une matrice et complément orthogonal Soit A une matrice n  n. Alors le complément orthogonal de l’espace des lignes de A est le noyau de A, et le complément orthogonal de l’espace des colonnes de A est le noyau de AT. (Row A) = Nul A (Col A) = Nul AT

Angles dans R2 et R3 u . v = ||u|| ||v||cos

Ensemble orthogonal Un ensemble de vecteurs {u1, u2,..., up} dans Rn est appelé ensemble orthogonal si chaque paire de vecteurs distincts provenant de cet ensemble est orthogonale, c’est-à-dire si ui . uj = 0 pour i  j

Théorèmes sur les ensembles orthogonaux Si S = {u1, u2,..., up} est un ensemble orthogonal de vecteurs non nuls dans Rn, alors S est linéairement indépendant et est donc une base pour le sous-espace engendré par S.

Base orthogonale Une base orthogonale pour un sous-espace W de Rn est une base pour W qui est aussi un ensemble orthogonal.

Théorème sur la représentation unique Soit {u1, u2,..., up} une base orthogonale d’un sous-espace W de Rn. Alors chaque vecteur y dans W possède une représentation unique selon une combinaison linéaire des vecteurs u1, u2,..., up.

Théorème sur la représentation unique (suite) En fait, si alors

Projection orthogonale On désire décomposer un vecteur y  Rn en une somme de deux vecteurs, l’un multiple de u  Rn et l’autre orthogonal à u. y = + z, où = u et z  u.

Projection orthogonale (suite) y u

Déf: Projection orthogonale La projection orthogonale du vecteur y sur le vecteur u est donnée par La composante du vecteur y orthogonale au vecteur u est donnée par

Interprétation géométrique y u1

Ensemble orthonormal Un ensemble orthogonal de vecteur unitaire est appelé ensemble orthonormal.

Théorème sur les matrices ayant des colonnes orthonormales Une matrice U m  n possède des colonnes orthonormales si et seulement si UTU = I.

Propriétés des matrices ayant des colonnes orthonormales Soit U une matrice m  n ayant des colonnes orthonormales, et soit x et y deux vecteurs dans Rn. Alors a. ||Ux|| = ||x|| b. (Ux) . (Uy) = x . y c. (Ux) . (Uy) = 0 si et seulement si x . y = 0

Application aux matrices carrées Une matrice orthogonale est une matrice carrée U telle que U-1 = UT  colonnes orthonormales  lignes orthonormales

Prochain cours... Projections orthogonales. Procédure de Gram-Schmidt