MATHÉMATIQUES L1 Second Semestre Armand Taranco
BIBLIOGRAPHIE Dupont : Algèbre pour les sciences économiques, Flash U, A. Colin. Bernard Guerrien, Isabelle This : Les mathématiques de la microéconomie, Economica, édition de poche. Lecoutre : Mathématiques pour sciences économiques. Exercices corrigés avec rappels de cours, Masson.
ALGEBRE LINEAIRE Espaces vectoriels Applications linéaires Matrices Déterminants Systèmes linéaires Inversion des matrices
ESPACES VECTORIELS Définition d’un espace vectoriel E est un espace vectoriel réel (e.v.r.) s'il est muni de deux lois de composition : Une loi de composition interne, appelée addition des vecteurs, qui fait de E un groupe commutatif : EV1 : l'addition est associative : x + (y + z) = (x + y) + z EV2 : l'addition est commutative : x + y = y + x. EV3 : l'addition possède un élément neutre, noté 0 E : x + 0 E = x EV4 : tout élément x de E possède un symétrique pour l'addition, noté – x : x + (–x) = 0 E
ESPACES VECTORIELS Une loi de composition externe, appelée multiplication par les réels, possédant, les propriétés suivantes : EV5 : la multiplication par les réels est distributive par rapport à l'addition des nombres réels : ( + µ).x =.x + µ.x EV6 : la multiplication par les réels est distributive par rapport à l'addition des vecteurs (éléments de E) :.(x + y) =.x +.y EV7 : la multiplication par les réels est associative : (.µ).x =.(µ.x) EV8 : la multiplication par le réel 1 est neutre : 1.x = x
ESPACES VECTORIELS Exemples - R, muni de l’addition est un e.v.r. - R n = { (x 1,…,x n ) / x 1 R,…, x n R }, muni de la somme : (x 1,…,x n ) + (y 1,…,y n ) = (x 1 + y 1,…,x n + y n ) et de la multiplication par les réels :.(x 1,…,x n ) = (.x 1,…,.x n ) - A (D, R), l’ensemble des applications de D dans R muni des deux lois : (f + g)(x) = f(x) + g(x) pour tout x dans D (.f)(x) =.f(x) pour tout x dans D
ESPACES VECTORIELS Sous espace vectoriel Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si les deux conditions suivantes sont vérifiées : 1) Pour tout v et tout w dans F, v + w est dans F 2) Pour tout v dans F et tout dans R,.v est dans F On dit aussi que F est une partie stable pour l’addition des vecteurs et la multiplication par les réels.
ESPACES VECTORIELS Propriété 1 Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si F muni de l’addition de E et de la multiplication par les réels est un e.v.r.. Propriété 2 Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si : pour tout u et tout v dans F, pour tout et tout dans R.u + .v est dans F.
ESPACES VECTORIELS Remarques Pour montrer qu’une partie F d’un e.v.r. E est un sous espace vectoriel de E il faut : - Vérifier d’abord que F est une partie non vide de E - Utiliser ensuite la définition ou la propriété 2. Combinaison linéaire Etant donné p vecteurs v 1,…,v p d’un e.v.r. E, une combinaison linéaire des p vecteurs v 1,…,v p est un vecteur u de E s’écrivant : u = 1.v 1 +…+ p.v p, i appartenant à R pour tout 1≤ i ≤ p
ESPACES VECTORIELS Sous espace vectoriel engendré par {u 1, …, u p } Etant donné p vecteurs u 1,…,u p d’un e.v.r. E, est un sous espace vectoriel de E appelé sous espace vectoriel engendré par { u 1, …, u p }. Notation : F =
ESPACES VECTORIELS Démonstration F n’est pas une partie vide car 0 E F : 0 E = 0. u 1 +…+ 0. u p F est un sous espace vectoriel de E : - Si v et w appartiennent à F alors v = 1.u 1 +…+ p.u p et w = 1.u 1 +…+ p.u p v + w = ( 1 + 1 ).u 1 +…+ ( p + p ).u p Par conséquent v + w F - Si v F et R, alors .v = ( 1.u 1 +…+ p.u p ) .v = 1.u 1 +…+ p.u p Par conséquent .v F
ESPACES VECTORIELS Exemple F = est un sous espace vectoriel de R 2, mais F ≠ R 2. Par exemple, le vecteur (3,4) n’est pas dans F. F = { u =.(1,1) + .(2,2) / R, R }
ESPACES VECTORIELS Parties génératrices Etant donné p vecteurs u 1,…,u p d’un e.v.r. E, { u 1,…,u p } est une partie génératrice de E si et seulement si : E = Remarque : {u 1,…,u p } est une partie génératrice de E si et seulement si : Pour tout v de E, on peut trouver ,…, p dans R tel que : v = 1.u 1 +…+ p.u p
ESPACES VECTORIELS Exercice Montrer que {(1,0), (0,1)} est une partie génératrice de R 2. Il faut montrer que pour chaque vecteur u de R 2, on peut trouver et tel que l’on ait : u =. (1,0) + . (0,1). u s’écrit : u = (x,y). (x,y) =. (1,0) + . (0,1) (x,y) = (,0) + (0, ) (x,y) = (, ) On choisit = x et = y.
ESPACES VECTORIELS Propriété Toute partie de E contenant une partie génératrice de E est aussi une partie génératrice de E. Dimension d’un espace vectoriel Un e.v.r. est dit de dimension finie s’il existe une partie génératrice de E contenant un nombre fini de vecteurs. Exemple E = R 2 est un e.v.r. de dimension finie car : R 2 =
ESPACES VECTORIELS Parties libres Etant donné p vecteurs u 1,…,u p d’un e.v.r. E, { u 1,…,u p } est une partie libre de E si et seulement si : On dit alors que les vecteurs u 1,…,u p sont linéairement indépendants. Propriété Toute partie extraite d’une partie libre de E est une partie libre de E.
ESPACES VECTORIELS Exemple {(1,0), (0,1)} est une partie libre de R 2. En effet, si alors 1.(1,0) + 2.(0,1) = (0,0) ( 1, 2 ) = (0,0) D’où : 1 = 0 et 2 = 0
ESPACES VECTORIELS Exercice Montrer que {(1,1), (2,2)} n’est pas une partie libre de R 2. En effet, 1.(1,1) + 2.(2,2) = (0,0) entraîne : = 0 Par conséquent, on n’a pas nécessairement 1 = 0 et 2 = 0
ESPACES VECTORIELS Partie liée Une partie { u 1,…,u p } d’un espace vectoriel qui n’est pas libre est dite liée. On dit alors que les vecteurs { u 1,…,u p } sont linéairement dépendants. Exemple {(1,0,0), (1,1,1), (-1,-2,-2)} est une partie liée.
ESPACES VECTORIELS Cela signifie qu’il existe des réels 1, 2, 3 non tous nuls tel que l’on ait : 1.(1,0,0) + 2.(1,1,1) + 3.(-1,-2,-2) = (0,0,0) ( , , ) = (0,0,0) D’où le système : = = 0 2 = = - 3 On peut choisir 1 = -1, 2 = 2, 3 = 1 D’où : -(1,0,0) + 2(1,1,1) + (-1,-2,-2) = (0,0,0)
ESPACES VECTORIELS Bases Etant donné un e.v.r. de dimension finie n, une base de E est un ensemble constitué de n vecteurs de E, { e 1,…,e n } tel que tout vecteur u de E s’écrive d’une façon unique sous la forme : Les i sont les composantes du vecteur u relativement à la base { e 1,…,e n }.
ESPACES VECTORIELS Exemple {(1,0), (0,1)} est une base de R 2. En effet, si u = (x,y) est un vecteur quelconque de R 2, il existe et tel que l’on ait : (x,y) = . ) + . 0,1) (x,y) = x.(1,0) + y.(0,1) D’où = x et = y.
ESPACES VECTORIELS Propriété caractéristique { e 1,…,e n } est une base de E si et seulement si { e 1,…,e n } est une partie génératrice libre de E. démonstration : - Supposons que { e 1,…,e n } soit une base de E. C’est donc une partie génératrice de E. Montrons qu’elle est libre. La décomposition étant unique, les i sont tous nuls.
ESPACES VECTORIELS Réciproquement, supposons que { e 1,…,e n } soit une partie génératrice libre de E. Soit une autre décomposition de u. Comme { e 1,…,e n } est une partie libre, i = i pour 1≤i≤n u s’écrit donc d’une façon unique : et { e 1,…,e n } est une base de E.
ESPACES VECTORIELS Comment montrer qu’une partie { e 1,…,e n } d’un espace vectoriel E est une base ? 1) On ne connaît pas la dimension de E. On utilise alors soit la définition soit la propriété caractéristique. 2) On connaît la dimension n de E. On montre alors que { e 1,…,e n } est une partie libre.
APPLICATIONS LINEAIRES Définition E et F deux espaces vectoriels réels f : E → F u → f(u) f est linéaire si et seulement si les deux conditions suivantes sont vérifiées : f(u + v) = f(u) + f(v) pour tout u E et tout v E f(.u) = f(u) pour tout u E et tout R
APPLICATIONS LINEAIRES Exemples - E = R, F = R f(x) = ax - E = R 2, F = R f : R 2 → F (x,y) → f(x,y) f(x,y) = ax + by - E = R 2, F = R 2 f(x,y) = (2x + 3y, x – y)
APPLICATIONS LINEAIRES Propriété caractéristique f : E → F est linéaire si et seulement si : pour tout R, tout R, tout u E, tout v E f(.u + .v) = f(u) + f(v) Propriété Si f : E → F est linéaire alors f(0 E ) = 0 F
APPLICATIONS LINEAIRES Caractérisation d’une application linéaire Théorème : soit { e 1,…,e n } une base d’un e.v.r. E et { v 1,…,v n } n vecteurs d’un e.v.r. F. Alors, il existe une application linéaire unique f : E → F vérifiant : f( e i ) = v i pour i =1,…,n f est entièrement déterminée par les images des éléments d’une base de E.
APPLICATIONS LINEAIRES Démonstration : Soit u E, alors u s’écrit d’une façon unique : Soit f une application linéaire de E dans F : f(u) = f( 1 e 1 +…+ n e n ) = 1 f(e 1 ) +…+ n f(e n ) f(u) = 1 v 1 +…+ n v n Si l’on prend comme définition de f : f(u) = 1 v 1 +…+ n v n, pour f est linéaire et vérifie : f(e i ) = v i pour i =1,…,n
APPLICATIONS LINEAIRES Exemple Déterminer l’application linéaire f : R 2 → R vérifiant : f(1,0) = 3 et f(0,1) = 2 Comme les vecteurs e 1 = (1,0) et e 2 = (0,1) forment une base de R 2, le théorème précédent montre qu’une telle application existe et est unique. Pour (x,y) R 2, on a : (x,y) = x.(1,0) + y.(0,1) f(x,y) = 3x + 2y
APPLICATIONS LINEAIRES Composition des applications linéaires f : E → F, g : F → G deux applications linéaires alors h = g o f : E → G est une application linéaire. démonstration : h( u + v) = g(f( u + v)) h( u + v) = g( f(u) + f(v)) h( u + v) = g o f(u) + g o f(v) pour tout, dans R et tout u, v dans E.
APPLICATIONS LINEAIRES Noyau d’une application linéaire Définition : soit f : E → F une application linéaire. Le noyau de f, noté Kerf, est défini par : Kerf = {u E / f(u) =0 F } 0F0F
APPLICATIONS LINEAIRES Propriété Si f : E → F est une application linéaire, alors Kerf est un s.e.v. de E. Démonstration Kerf n’est pas vide car 0 E Kerf. Soit u et v deux vecteurs quelconques de Kerf et, deux réels quelconques. f( u + v) = f(u) + f(v) (f est linéaire) f( u + v) = 0 F + 0 F (u et v sont dans Kerf) f( u + v) = 0 F Par conséquent, u + v est dans Kerf. Kerf est donc un s.e.v. de E.
APPLICATIONS LINEAIRES Exemple Soit f : R 2 → R 2 définie par : f(x,y) = (x+y,x+y) (f est linéaire, le vérifier) Kerf = {(x,y) R 2 / f(x,y) = 0 R 2 } Kerf = {(x,y) R 2 / f(x,y) = (0,0)} Kerf = {(x,y) R 2 / x + y = 0} Kerf = {(x,-x) R 2 / x R} Kerf = {x.(1,-1), x R} Kerf =
APPLICATIONS LINEAIRES Caractérisation des injections linéaires Soit f : E → F une application linéaire. Alors f est injective si et seulement : Kerf = {0 E } démonstration : supposons f injective. Soit u Kerf, alors f(u) = 0 F. Mais f est injective, d’où u = 0 E Donc Kerf = {0 E }.
APPLICATIONS LINEAIRES Réciproquement, supposons Kerf = {0 E }. Si f(u) = f(v) alors f(u) – f(v) = 0 F. Comme f est linéaire, f(u) – f(v) =f(u – v) = 0 F. Par conséquent, u – v Kerf. Mais Kerf = {0 E }, donc u – v = 0 E et u = v. f est donc injective.
APPLICATIONS LINEAIRES Image d’une application linéaire Définition : soit f : E → F une application linéaire. L’image de f, notée Imf, est l’ensemble f(E) : Imf = {v F / v = f(u), u E}
APPLICATIONS LINEAIRES Propriété Si f : E → F est une application linéaire, alors Imf est un s.e.v. de F. Démonstration Imf n’est pas vide car 0 F Imf. Soit v 1 et v 2 deux vecteurs quelconques de Imf et , deux réels quelconques. Alors il existe deux vecteurs u 1 et u 2 de E tel que l’on ait : v 1 = f(u 1 ) et v 2 = f(u 2 ). .v 1 + .v 2 = .f(u 1 ) + .f(u 2 ) = f( .u 1 + .u 2 ) Donc ( .v 1 + .v 2 ) Imf
APPLICATIONS LINEAIRES Caractérisation des surjections linéaires Soit f : E → F une application linéaire. Alors f est surjective si et seulement : Imf = F démonstration : On a toujours : Imf ⊂ F. f est surjective si et seulement si : Pour tout v F il existe u E tel que f(u) = v. Donc, v Imf et F ⊂ Imf.
APPLICATIONS LINEAIRES Caractérisation des bijections linéaires Soit f : E → F une application linéaire. Alors f est bijective si et seulement : Kerf = {0 E } et Imf = F Théorème Soit f : E → F une application linéaire bijective. Alors f -1 est une application linéaire de F dans E.
APPLICATIONS LINEAIRES Exemple Soit f : R 2 → R 2 définie par : f(x,y) = (x+y,x+y) Imf = {f(x,y) / (x,y) R 2 } Imf = {(x+y,x+y) / (x,y) R 2 } Imf = {(x+y).(1,1) / (x,y) R 2 } Imf = {.(1,1) / R} Imf = Kerf =
APPLICATIONS LINEAIRES Rang d’une application linéaire Définition : le rang d’une application linéaire f : E → F est la dimension de l’espace vectoriel Imf. rg(f) = dim(Imf) Remarque : étant donné une base { e 1,…,e n } de E, le rang de f est égal au nombre maximum de vecteurs linéairement indépendants de {f(e 1 ),…,f(e n )}. Théorème noyau / image : soit E et F deux espaces vectoriels de dimension finie et f : E → F une application linéaire. Alors on a : dimE = dim(Kerf) + dim(Imf)
APPLICATIONS LINEAIRES Conséquences pratiques soit E et F deux espaces vectoriels de dimension finie et f : E → F une application linéaire. –f est injective si et seulement si rg(f) = dimE. –f est surjective si et seulement si rg(f) = dimF. –f est bijective si et seulement si rg(f) = dimE = dimF. Exemple Soit f : R 2 → R 2 définie par : f(x,y) = (x+y,x+y) Imf = → dimF = 1 = rg(f) Kerf = → dim(Kerf) = 1 dim(R 2 ) = =2
MATRICES Définition Une matrice M à n lignes et p colonnes est un tableau de nombres réels comportant n lignes et p colonnes. a 11 a 12 …a 1p.... M =.. a ij. i ème ligne.... a n1 a n2 …a np j ème colonne M = [a ij ] 1≤i≤n, 1≤j≤p
MATRICES L’ensemble des matrices à n lignes et p colonnes se note M (n,p). Exemples 2 lignes, 3 colonnes 2 lignes, 2 colonnes B est une matrice carrée.
MATRICES Matrice identité d’ordre 2 d’ordre n (n lignes, n colonnes)
MATRICES Matrice diagonale Matrice triangulaire supérieureinférieure
MATRICES Opérations sur les matrices –Somme A M (n,p), B M (n,p) C = A + B C ij = a ij + b ij Exemple
MATRICES –Produit par un nombre réel A M (n,p), R D =.A d ij = a ij Exemple
MATRICES Propriété de M (n,p) M (n,p) muni de l’addition des matrices et du produit par les nombres réels est un espace vectoriel de dimension np. Une base de cet espace vectoriel est formée par les matrices I ij, où I ij est la matrice ayant l’élément 1 à l’intersection de la i ème ligne et de la j ème colonne et ne comportant que des zéros ailleurs.
MATRICES Exemple
MATRICES Produit de deux matrices A M (n,p), B M (p,m) C = A x B C M (n,m) C = [c ij ] 1≤i≤n, 1≤j≤m
MATRICES Exemple
MATRICES Propriétés A x (B + C) = A x B + A x C A x (B x C) = (A x B) x C Remarques 1) En général, A x B ≠ B x A. Il se peut même que B x A ne soit pas défini. 2) A x B = A x C ⇏ C = B
MATRICES Transposition Soit M = [a ij ]. La transposée de M, notée t M, est la matrice dont les éléments sont a ji. Exemple
MATRICES Propriétés de la transposition t (M+P) = t M + t P t (AB) = t B t A t ( t M) = M Définition Une matrice M est symétrique si et seulement si M = t M. Remarque Une matrice symétrique est forcément carrée.
MATRICES Lien entre matrices et applications linéaires –A toute matrice M M (n,p) on peut associer une application linéaire : f : R p R n X Y = M.X –A toute application linéaire f : R p R n, on peut associer une matrice qui dépend du choix de la base { e 1,…,e p } dans l’espace de départ et du choix de la base { f 1,…,f n } dans l’espace d’arrivée.
MATRICES
Exemple f : R 2 → R 2 f(x,y) = (5x + 2y,8x +3y) {(1,0), (0,1)}, la base canonique de R 2 (espace de départ et d’arrivée). f(1,0) = (5,8) f(0,1) = (2,3) Matrice associée à f :
MATRICES Exemple f : R 2 → R 2 f(x,y) = (5x + 2y,8x +3y) {(1,1), (1,0)} comme base de l’espace de départ et {(1,0), (0,1)} comme base de l’espace d’arrivée. f(1,1) = (7,11) f(1,0) = (5,8) Matrice associée à f :
DETERMINANTS Le déterminant d’une matrice n’est défini que pour une matrice carrée. Déterminant d’ordre 2 Notations detA ou
DETERMINANTS Déterminant d’ordre 3 Mineur M ij : déterminant de la sous matrice obtenue en supprimant la i ème ligne et la j ème colonne M 11
DETERMINANTS
Déterminant d’ordre 3 On peut développer un déterminant suivant une ligne ou une colonne. Suivant la première colonne : detA = a M 11 – a’M 21 + a’’M 31 Suivant la première ligne : detA = a M 11 – bM 12 + cM 13 Le signe que l’on met devant le mineur M ij est (-1) i+j.
DETERMINANTS Exemple Suivant la deuxième ligne :
DETERMINANTS Propriétés des déterminants d’ordre 2
DETERMINANTS
Déterminant d’ordre n M ij est un mineur d’ordre (n - 1) obtenu en supprimant la i ème ligne et la j ème colonne. Remarque : pour simplifier les calculs, choisir une ligne ou une colonne comportant le maximum de zéros.
DETERMINANTS Propriétés Soit A une matrice carrée d’ordre n 1)det( A) = n detA 2)det( t A) = detA 3)det(A.B) = detA.detB 4)det(A n ) = (detA) n
DETERMINANTS Propriétés (suite) 5)Déterminant d’une matrice diagonale 6)Déterminant d’une matrice triangulaire 0 0 0
DETERMINANTS Propriétés (suite) 7)Déterminant d’une matrice inversible Soit A une matrice inversible, c’est-à-dire, une matrice A telle qu’il existe une matrice vérifiant : Alors detA ≠0 et
DETERMINANTS Propriétés (suite) 8)Manipulation sur les lignes
DETERMINANTS Propriétés (suite) 8)Manipulation sur les lignes
DETERMINANTS Vecteurs linéairement indépendants de R n Soit { u 1,…,u n } n vecteurs de R n. Alors u 1,…,u n sont linéairement indépendants si et seulement si le déterminant de la matrice dont les colonnes sont formées par ces vecteurs est différent de 0. Exemple Les vecteurs et sont linéairement indépendants car :
DETERMINANTS Rang d’un système de vecteurs Le rang du système de vecteurs {u 1,…,u n } est l’ordre du plus grand sous déterminant non nul que l’on peut extraire de la matrice dont les colonnes sont constituées par ces vecteurs. Exemple
DETERMINANTS Matrice associée à {u 1, u 2, u 3 } Rang {u 1, u 2, u 3 } = 3. Les vecteurs {u 1, u 2, u 3 } forme une partie libre de R 4.
SYSTEMES LINEAIRES Système linéaire Y=AX A : matrice à n lignes et p colonnes X un vecteur de R p, Y un vecteur de R n. Ce système s’écrit : a 11 x 1 +…+ a 1p x p = y 1 … a n1 x 1 +…+ a np x p = y n n équations, p inconnues. Une solution de ce système est un p-uplet (x 1,…,x p ) qui vérifie les n équations.
SYSTEMES LINEAIRES Système de Cramer Y=AX A : matrice carrée d’ordre n Si detA ≠0, le système admet une solution unique. On dit que c’est un système de Cramer. On peut écrire la solution de cette équation sous la forme de rapports de déterminants.
SYSTEMES LINEAIRES Exemple C’est un système de Cramer car :
SYSTEMES LINEAIRES La solution s’écrit :
SYSTEMES LINEAIRES Remarque Cette méthode est peu utilisable pour résoudre numériquement des systèmes réels (n élevé). Elle a surtout un intérêt théorique.
SYSTEMES LINEAIRES Méthode du pivot de Gauss Le principe de la méthode consiste à éliminer une ou plusieurs variables par combinaisons linéaires entre les équations du système pour le transformer en un système triangulaire facile à résoudre. Cas p = n Il y a autant d’équations que d’inconnues Exemple :
SYSTEMES LINEAIRES Représentation du système linéaire par une matrice
SYSTEMES LINEAIRES Recherche dans la première colonne d’un nombre égal à 1 (appelé pivot)
SYSTEMES LINEAIRES Echanger la ligne du pivot avec la première ligne
Faire apparaître des zéros sous le pivot de la première colonne Multiplier par 2 la ligne du pivot Soustraire le résultat de la deuxième ligne - SYSTEMES LINEAIRES X 2
Faire apparaître des zéros sous le pivot de la première colonne SYSTEMES LINEAIRES Multiplier la ligne du pivot par (-1) et soustraire de la troisième ligne
On ne modifie plus la première ligne On passe à la deuxième colonne On permute la deuxième et troisième ligne Il n’y a pas de 1 dans la deuxième colonne : on divise par 6 la deuxième ligne SYSTEMES LINEAIRES
Faire apparaître un zéro sous le 1 de la deuxième colonne Pour cela, on multiplie la deuxième ligne (ligne du pivot) par (-11) et on la retranche de la troisième.
SYSTEMES LINEAIRES On ne modifie plus la deuxième ligne. On fait apparaître un 1 dans la troisième colonne (dernier pivot) à la troisième ligne.
SYSTEMES LINEAIRES Retour au système d’équations Le système décrit par la matrice : correspond au système triangulaire d’équations :
SYSTEMES LINEAIRES Solution du système triangulaire z = 13 y = 3 x = 2
SYSTEMES LINEAIRES Méthode du pivot : cas p=n Etape 1 : construire le tableau :
SYSTEMES LINEAIRES Méthode du pivot : cas p=n Etape 2 Si, passer à l’étape 3. On appelle le pivot. Si, et, diviser la ligne L 1 par et passer à l’étape 3. Si, on choisit dans la première colonne de A un élément. On échange ensuite la ligne du pivot avec la première ligne.
SYSTEMES LINEAIRES Méthode du pivot : cas p=n Etape 3 Pour chaque i {2,…,n} on remplace la ligne L i par L i –a i1 L 1, on obtient la matrice :
SYSTEMES LINEAIRES Méthode du pivot : cas p=n On poursuit alors par itération sur les colonnes : on retourne à l’étape 1, mais en considérant la deuxième colonne, puis la troisième,…jusqu’au pivot. Remarques - Si au cours du processus on tombe sur une ligne ne comportant que des zéros, on la supprime. - S’il apparaît une ligne composée de zéros sauf pour la dernière colonne, le système n’a pas de solution.
SYSTEMES LINEAIRES Méthode du pivot : cas p=n On peut transformer le système linéaire triangulaire obtenu en un système linéaire diagonal et lire directement la solution lorsqu’il y en a une. Reprenons la matrice obtenue dans l’exemple précédent.
SYSTEMES LINEAIRES Méthode du pivot : cas p=n On part de la troisième colonne et on fait apparaître des zéros au dessus de la dernière ligne par la même méthode que précédemment.
SYSTEMES LINEAIRES Méthode du pivot : cas p=n On continue avec la deuxième colonne.
Méthode du pivot : cas p≠n Soit r le rang de la matrice A. Supposons n<p et r=n. Exemple SYSTEMES LINEAIRES
Exemple SYSTEMES LINEAIRES
Exemple SYSTEMES LINEAIRES
Exemple On remarque que le rang de la nouvelle matrice A est 2 car : SYSTEMES LINEAIRES
Exemple On obtient donc le système d’équations : qui a une infinité de solutions s’exprimant à l’aide de la variable auxiliaire z : SYSTEMES LINEAIRES
Méthode du pivot : cas p≠n Soit r le rang de la matrice A. Supposons r<n≤p. Exemple SYSTEMES LINEAIRES
Exemple SYSTEMES LINEAIRES
Exemple SYSTEMES LINEAIRES
Exemple SYSTEMES LINEAIRES Supprimer la ligne de zéros
Exemple On revient au système exprimé par le dernier tableau. Le système possède une infinité de solutions s ’écrivant à l’aide de la variable auxiliaire z. SYSTEMES LINEAIRES
Principe du calcul de l’inverse d’une matrice carrée Soit A une matrice carrée telle que detA≠0. Alors l’inverse de A, noté A -1 existe. Supposons par exemple que A est une matrice carrée d’ordre 3. On cherche une matrice A -1 : INVERSION DES MATRICES Méthode du pivot de Gauss
Ce problème est équivalent à la résolution de trois systèmes linéaires : On va appliquer la méthode du pivot de Gauss pour résoudre simultanément ces trois systèmes. INVERSION DES MATRICES
Exemple Tableau représentant les trois systèmes à résoudre : INVERSION DES MATRICES
Exemple INVERSION DES MATRICES
Exemple INVERSION DES MATRICES
Exemple INVERSION DES MATRICES
Exemple INVERSION DES MATRICES
Exemple INVERSION DES MATRICES I3I3 Inverse de A
INVERSION DES MATRICES Méthode de la comatrice Exemple Comatrice : matrice des cofacteurs Cofacteur de 1:
INVERSION DES MATRICES Méthode de la comatrice Exemple (suite) Transposée de la comatrice : Déterminant de A : det(A) = 2 Inverse de A
CALCUL INTEGRAL Introduction Intégrale de Riemann Propriétés Primitives Techniques d’intégration
CALCUL INTEGRAL Aire d’une partie de R 2
CALCUL INTEGRAL Approximation d’une aire Approximation par défautApproximation par excès
CALCUL INTEGRAL Aire d’une région sous le graphe d’une fonction continue sur [a,b]
CALCUL INTEGRAL Intégrale d’une fonction continue sur [a,b] Soit f une fonction continue sur [a,b]. On partage le segment [a,b] en n sous intervalles de même longueur et l’on pose : Pour 1 ≤ i ≤ n, soit un point du segment [x i-1, x i ]. On appelle intégrale définie de f sur [a,b] le nombre défini par :
CALCUL INTEGRAL Approximation d’une intégrale par une somme de Riemann La somme s’appelle une somme de Riemann. milieu de