MATHÉMATIQUES L1 Second Semestre Armand Taranco. BIBLIOGRAPHIE Dupont : Algèbre pour les sciences économiques, Flash U, A. Colin. Bernard Guerrien, Isabelle.

Slides:



Advertisements
Présentations similaires
Eléments d'algèbre linéaire
Advertisements

La Méthode de Simplexe Standardisation
Les matrices.
Gestion de portefeuille
Cours 5-b Problèmes spatio-temporels d’ordre 1 en temps
VII) Formalisme Quantique
METHODE DE GAUSS FACTORISATION LU
Système formel Nous avons introduit : signes de variables (x, y, z, …), de constantes (0, 1), d’opérations (+, ), de relations (=, ) Axiomes : ce sont.
Cours du 20 septembre Exceptionnellement, le cours prévu pour le mercredi 20 septembre se donnera Mardi le 19 septembre de 13h30 à 15h20 à la salle 1112.
ALGEBRE DE BOOLE Mohamed Yassine Haouam
Chapitre VII :Commande par retour d’état
Algèbre matricielle Montage préparé par : André Ross
Continuité Introduction Continuité Théorème des valeurs intermédiaires
Lois de la statique Equilibre des solides.
Rappel... Sous-espaces de Rn: Définition;
Cours DÉTERMINANT. Au dernier cours nous avons vus Linverse dune matrice. Quelques théorèmes qui encadrent son existence. Les matrices élémentaires.
ASI 3 Méthodes numériques pour l’ingénieur
VI – Rang d’une matrice Mots clés : Rang.
indépendance linéaire
Transformations Montage préparé par : S André Ross
ASI 3 Méthodes numériques pour l’ingénieur
Concepts avancés en mathématiques et informatique appliquées
Algèbre vectorielle Montage préparé par : André Ross
Rappel... Opérations élémentaires sur les matrices:
1.2 COMPOSANTES DES VECTEURS
Aujourdhui: Vérification des devoirs. Retour. Titre de la leçon et contextualisation. Lacquisition des connaissances déclaratives, procédurale et conditionnelles.
Systèmes d’équations linéaires
Chapitre 3bis Applications linéaires et Matrices
Examen partiel #2 Mercredi le 15 novembre de 13h30 à 15h20
Rappel... Solution itérative de systèmes linéaires (suite et fin).
7.1 TRANSFORMATION LINÉAIRE Cours 19. Au dernier cours nous avons vus Le déterminant dune matrice carré Les propriétés du déterminant La matrice adjointe.
Espaces vectoriels Montage préparé par : S André Ross
Introduction aux matrices : exemples en dynamique de population
Exemple en dynamique de population
Rappel... Caractérisation des matrices inversibles: Matrices bloc.
Programmation linéaire en nombres entiers : la méthode du simplexe
CALCUL FRACTIONNAIRE.
5.1 SYSTÈME DÉQUATIONS LINÉAIRES Cours 13. Au dernier cours nous avons vus Léquations vectoriel et léquation normale dun plan. Lintersection de deux plans.
6.1 LE LANGAGE MATRICIEL Cours 16. Aujourdhui, nous allons voir La définition dune matrice Plusieurs définitions de matrice particulière La somme de matrices.
1.1 LES VECTEURS GÉOMÉTRIQUES
Dénombrements.
Géométrie analytique Équations d’une droite
Déterminants Montage préparé par : André Ross
Transformations linéaires et sous-espaces associés
Sous-espaces vectoriels engendrés
l’algorithme du simplexe
Cours du 25 octobre Mardi le 24 octobre
Examen partiel #1 Mercredi le 4 octobre de 13h30 à 15h20
ASI 3 Méthodes numériques pour l’ingénieur
ASI 3 Méthodes numériques pour l’ingénieur
Rappel... Valeurs propres et vecteurs propres. Définitions;
Cours de mathématiques économiques
01/09/2009 CalculmatricielCalculmatriciel. I. Matrices.
L’endomorphisme le plus simple est l’ homothétie
8.1 LES NOMBRES COMPLEXES cours 26. Avec la venue de: Doigts Dettes Tartes Distances.
Programmation linéaire en nombres entiers
MATHÉMATIQUES ECO GESTION
CHAPITRE III Calcul vectoriel
OUTILS MATHEMATIQUES POUR LES SII
Chapitre 3: Translation et Vecteurs
Calendrier (sur MathSV)
ASI 3 Méthodes numériques pour l’ingénieur
Structure de groupe Def: un groupe est un ensemble (G,*) où
Chapitre 4 Variables aléatoires discrètes
Post-optimisation, analyse de sensibilité et paramétrage
1.1 LES VECTEURS GÉOMÉTRIQUES
Pierre Joli Cours de Mathématique Pierre Joli
Chap. 3 Récursion et induction. Les définitions par récurrence consistent à construire des objets finis, à partir d'autres, selon certaines règles. Les.
LES POSTULATS DE LA MÉCANIQUE QUANTIQUE
Cycle, Cocycle, Arbre et Arborescence
Transcription de la présentation:

MATHÉMATIQUES L1 Second Semestre Armand Taranco

BIBLIOGRAPHIE Dupont : Algèbre pour les sciences économiques, Flash U, A. Colin. Bernard Guerrien, Isabelle This : Les mathématiques de la microéconomie, Economica, édition de poche. Lecoutre : Mathématiques pour sciences économiques. Exercices corrigés avec rappels de cours, Masson.

ALGEBRE LINEAIRE Espaces vectoriels Applications linéaires Matrices Déterminants Systèmes linéaires Inversion des matrices

ESPACES VECTORIELS Définition d’un espace vectoriel E est un espace vectoriel réel (e.v.r.) s'il est muni de deux lois de composition : Une loi de composition interne, appelée addition des vecteurs, qui fait de E un groupe commutatif : EV1 : l'addition est associative : x + (y + z) = (x + y) + z EV2 : l'addition est commutative : x + y = y + x. EV3 : l'addition possède un élément neutre, noté 0 E : x + 0 E = x EV4 : tout élément x de E possède un symétrique pour l'addition, noté – x : x + (–x) = 0 E

ESPACES VECTORIELS Une loi de composition externe, appelée multiplication par les réels, possédant, les propriétés suivantes : EV5 : la multiplication par les réels est distributive par rapport à l'addition des nombres réels : ( + µ).x =.x + µ.x EV6 : la multiplication par les réels est distributive par rapport à l'addition des vecteurs (éléments de E) :.(x + y) =.x +.y EV7 : la multiplication par les réels est associative : (.µ).x =.(µ.x) EV8 : la multiplication par le réel 1 est neutre : 1.x = x

ESPACES VECTORIELS Exemples - R, muni de l’addition est un e.v.r. - R n = { (x 1,…,x n ) / x 1  R,…, x n  R }, muni de la somme : (x 1,…,x n ) + (y 1,…,y n ) = (x 1 + y 1,…,x n + y n ) et de la multiplication par les réels :.(x 1,…,x n ) = (.x 1,…,.x n ) - A (D, R), l’ensemble des applications de D dans R muni des deux lois : (f + g)(x) = f(x) + g(x) pour tout x dans D (.f)(x) =.f(x) pour tout x dans D

ESPACES VECTORIELS Sous espace vectoriel Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si les deux conditions suivantes sont vérifiées : 1) Pour tout v et tout w dans F, v + w est dans F 2) Pour tout v dans F et tout dans R,.v est dans F On dit aussi que F est une partie stable pour l’addition des vecteurs et la multiplication par les réels.

ESPACES VECTORIELS Propriété 1 Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si F muni de l’addition de E et de la multiplication par les réels est un e.v.r.. Propriété 2 Une partie F d’un e.v.r. E est un sous espace vectoriel de E si et seulement si : pour tout u et tout v dans F, pour tout et tout  dans R.u + .v est dans F.

ESPACES VECTORIELS Remarques Pour montrer qu’une partie F d’un e.v.r. E est un sous espace vectoriel de E il faut : - Vérifier d’abord que F est une partie non vide de E - Utiliser ensuite la définition ou la propriété 2. Combinaison linéaire Etant donné p vecteurs v 1,…,v p d’un e.v.r. E, une combinaison linéaire des p vecteurs v 1,…,v p est un vecteur u de E s’écrivant : u = 1.v 1 +…+ p.v p, i appartenant à R pour tout 1≤ i ≤ p

ESPACES VECTORIELS Sous espace vectoriel engendré par {u 1, …, u p } Etant donné p vecteurs u 1,…,u p d’un e.v.r. E, est un sous espace vectoriel de E appelé sous espace vectoriel engendré par { u 1, …, u p }. Notation : F =

ESPACES VECTORIELS Démonstration F n’est pas une partie vide car 0 E  F : 0 E = 0. u 1 +…+ 0. u p F est un sous espace vectoriel de E : - Si v et w appartiennent à F alors v = 1.u 1 +…+ p.u p et w =  1.u 1 +…+  p.u p v + w = ( 1 +  1 ).u 1 +…+ ( p +  p ).u p Par conséquent v + w  F - Si v  F et   R, alors .v =  ( 1.u 1 +…+ p.u p ) .v =  1.u 1 +…+  p.u p Par conséquent .v  F

ESPACES VECTORIELS Exemple F = est un sous espace vectoriel de R 2, mais F ≠ R 2. Par exemple, le vecteur (3,4) n’est pas dans F. F = { u =.(1,1) + .(2,2) / R,  R }

ESPACES VECTORIELS Parties génératrices Etant donné p vecteurs u 1,…,u p d’un e.v.r. E, { u 1,…,u p } est une partie génératrice de E si et seulement si : E = Remarque : {u 1,…,u p } est une partie génératrice de E si et seulement si : Pour tout v de E, on peut trouver ,…, p dans R tel que : v = 1.u 1 +…+ p.u p

ESPACES VECTORIELS Exercice Montrer que {(1,0), (0,1)} est une partie génératrice de R 2. Il faut montrer que pour chaque vecteur u de R 2, on peut trouver et  tel que l’on ait : u =. (1,0) + . (0,1). u s’écrit : u = (x,y). (x,y) =. (1,0) + . (0,1) (x,y) = (,0) + (0,  ) (x,y) = (,  ) On choisit = x et  = y.

ESPACES VECTORIELS Propriété Toute partie de E contenant une partie génératrice de E est aussi une partie génératrice de E. Dimension d’un espace vectoriel Un e.v.r. est dit de dimension finie s’il existe une partie génératrice de E contenant un nombre fini de vecteurs. Exemple E = R 2 est un e.v.r. de dimension finie car : R 2 =

ESPACES VECTORIELS Parties libres Etant donné p vecteurs u 1,…,u p d’un e.v.r. E, { u 1,…,u p } est une partie libre de E si et seulement si : On dit alors que les vecteurs u 1,…,u p sont linéairement indépendants. Propriété Toute partie extraite d’une partie libre de E est une partie libre de E.

ESPACES VECTORIELS Exemple {(1,0), (0,1)} est une partie libre de R 2. En effet, si alors 1.(1,0) + 2.(0,1) = (0,0) ( 1, 2 ) = (0,0) D’où : 1 = 0 et 2 = 0

ESPACES VECTORIELS Exercice Montrer que {(1,1), (2,2)} n’est pas une partie libre de R 2. En effet, 1.(1,1) + 2.(2,2) = (0,0) entraîne : = 0 Par conséquent, on n’a pas nécessairement 1 = 0 et 2 = 0

ESPACES VECTORIELS Partie liée Une partie { u 1,…,u p } d’un espace vectoriel qui n’est pas libre est dite liée. On dit alors que les vecteurs { u 1,…,u p } sont linéairement dépendants. Exemple {(1,0,0), (1,1,1), (-1,-2,-2)} est une partie liée.

ESPACES VECTORIELS Cela signifie qu’il existe des réels 1, 2, 3 non tous nuls tel que l’on ait : 1.(1,0,0) + 2.(1,1,1) + 3.(-1,-2,-2) = (0,0,0) ( , , ) = (0,0,0) D’où le système : = = 0 2 = = - 3 On peut choisir 1 = -1, 2 = 2, 3 = 1 D’où : -(1,0,0) + 2(1,1,1) + (-1,-2,-2) = (0,0,0)

ESPACES VECTORIELS Bases Etant donné un e.v.r. de dimension finie n, une base de E est un ensemble constitué de n vecteurs de E, { e 1,…,e n } tel que tout vecteur u de E s’écrive d’une façon unique sous la forme : Les i sont les composantes du vecteur u relativement à la base { e 1,…,e n }.

ESPACES VECTORIELS Exemple {(1,0), (0,1)} est une base de R 2. En effet, si u = (x,y) est un vecteur quelconque de R 2, il existe  et  tel que l’on ait : (x,y) = .  ) + .  0,1) (x,y) = x.(1,0) + y.(0,1) D’où  = x et  = y.

ESPACES VECTORIELS Propriété caractéristique { e 1,…,e n } est une base de E si et seulement si { e 1,…,e n } est une partie génératrice libre de E. démonstration : - Supposons que { e 1,…,e n } soit une base de E. C’est donc une partie génératrice de E. Montrons qu’elle est libre. La décomposition étant unique, les i sont tous nuls.

ESPACES VECTORIELS Réciproquement, supposons que { e 1,…,e n } soit une partie génératrice libre de E. Soit une autre décomposition de u. Comme { e 1,…,e n } est une partie libre, i =  i pour 1≤i≤n u s’écrit donc d’une façon unique : et { e 1,…,e n } est une base de E.

ESPACES VECTORIELS Comment montrer qu’une partie { e 1,…,e n } d’un espace vectoriel E est une base ? 1) On ne connaît pas la dimension de E. On utilise alors soit la définition soit la propriété caractéristique. 2) On connaît la dimension n de E. On montre alors que { e 1,…,e n } est une partie libre.

APPLICATIONS LINEAIRES Définition E et F deux espaces vectoriels réels f : E → F u → f(u) f est linéaire si et seulement si les deux conditions suivantes sont vérifiées : f(u + v) = f(u) + f(v) pour tout u  E et tout v  E f(.u) = f(u) pour tout u  E et tout  R

APPLICATIONS LINEAIRES Exemples - E = R, F = R f(x) = ax - E = R 2, F = R f : R 2 → F (x,y) → f(x,y) f(x,y) = ax + by - E = R 2, F = R 2 f(x,y) = (2x + 3y, x – y)

APPLICATIONS LINEAIRES Propriété caractéristique f : E → F est linéaire si et seulement si : pour tout  R, tout   R, tout u  E, tout v  E f(.u + .v) = f(u) +  f(v) Propriété Si f : E → F est linéaire alors f(0 E ) = 0 F

APPLICATIONS LINEAIRES Caractérisation d’une application linéaire Théorème : soit { e 1,…,e n } une base d’un e.v.r. E et { v 1,…,v n } n vecteurs d’un e.v.r. F. Alors, il existe une application linéaire unique f : E → F vérifiant : f( e i ) = v i pour i =1,…,n f est entièrement déterminée par les images des éléments d’une base de E.

APPLICATIONS LINEAIRES Démonstration : Soit u  E, alors u s’écrit d’une façon unique : Soit f une application linéaire de E dans F : f(u) = f( 1 e 1 +…+ n e n ) = 1 f(e 1 ) +…+ n f(e n ) f(u) = 1 v 1 +…+ n v n Si l’on prend comme définition de f : f(u) = 1 v 1 +…+ n v n, pour f est linéaire et vérifie : f(e i ) = v i pour i =1,…,n

APPLICATIONS LINEAIRES Exemple Déterminer l’application linéaire f : R 2 → R vérifiant : f(1,0) = 3 et f(0,1) = 2 Comme les vecteurs e 1 = (1,0) et e 2 = (0,1) forment une base de R 2, le théorème précédent montre qu’une telle application existe et est unique. Pour (x,y)  R 2, on a : (x,y) = x.(1,0) + y.(0,1) f(x,y) = 3x + 2y

APPLICATIONS LINEAIRES Composition des applications linéaires f : E → F, g : F → G deux applications linéaires alors h = g o f : E → G est une application linéaire. démonstration : h(  u +  v) = g(f(  u +  v)) h(  u +  v) = g( f(u) +  f(v)) h(  u +  v) = g o f(u) +  g o f(v) pour tout,  dans R et tout u, v dans E.

APPLICATIONS LINEAIRES Noyau d’une application linéaire Définition : soit f : E → F une application linéaire. Le noyau de f, noté Kerf, est défini par : Kerf = {u  E / f(u) =0 F } 0F0F

APPLICATIONS LINEAIRES Propriété Si f : E → F est une application linéaire, alors Kerf est un s.e.v. de E. Démonstration Kerf n’est pas vide car 0 E  Kerf. Soit u et v deux vecteurs quelconques de Kerf et,  deux réels quelconques. f( u +  v) = f(u) +  f(v) (f est linéaire) f( u +  v) = 0 F +  0 F (u et v sont dans Kerf) f( u +  v) = 0 F Par conséquent, u +  v est dans Kerf. Kerf est donc un s.e.v. de E.

APPLICATIONS LINEAIRES Exemple Soit f : R 2 → R 2 définie par : f(x,y) = (x+y,x+y) (f est linéaire, le vérifier) Kerf = {(x,y)  R 2 / f(x,y) = 0 R 2 } Kerf = {(x,y)  R 2 / f(x,y) = (0,0)} Kerf = {(x,y)  R 2 / x + y = 0} Kerf = {(x,-x)  R 2 / x  R} Kerf = {x.(1,-1), x  R} Kerf =

APPLICATIONS LINEAIRES Caractérisation des injections linéaires Soit f : E → F une application linéaire. Alors f est injective si et seulement : Kerf = {0 E } démonstration : supposons f injective. Soit u  Kerf, alors f(u) = 0 F. Mais f est injective, d’où u = 0 E Donc Kerf = {0 E }.

APPLICATIONS LINEAIRES Réciproquement, supposons Kerf = {0 E }. Si f(u) = f(v) alors f(u) – f(v) = 0 F. Comme f est linéaire, f(u) – f(v) =f(u – v) = 0 F. Par conséquent, u – v  Kerf. Mais Kerf = {0 E }, donc u – v = 0 E et u = v. f est donc injective.

APPLICATIONS LINEAIRES Image d’une application linéaire Définition : soit f : E → F une application linéaire. L’image de f, notée Imf, est l’ensemble f(E) : Imf = {v  F / v = f(u), u  E}

APPLICATIONS LINEAIRES Propriété Si f : E → F est une application linéaire, alors Imf est un s.e.v. de F. Démonstration Imf n’est pas vide car 0 F  Imf. Soit v 1 et v 2 deux vecteurs quelconques de Imf et ,  deux réels quelconques. Alors il existe deux vecteurs u 1 et u 2 de E tel que l’on ait : v 1 = f(u 1 ) et v 2 = f(u 2 ). .v 1 + .v 2 = .f(u 1 ) + .f(u 2 ) = f( .u 1 + .u 2 ) Donc ( .v 1 + .v 2 )  Imf

APPLICATIONS LINEAIRES Caractérisation des surjections linéaires Soit f : E → F une application linéaire. Alors f est surjective si et seulement : Imf = F démonstration : On a toujours : Imf ⊂ F. f est surjective si et seulement si : Pour tout v  F il existe u  E tel que f(u) = v. Donc, v  Imf et F ⊂ Imf.

APPLICATIONS LINEAIRES Caractérisation des bijections linéaires Soit f : E → F une application linéaire. Alors f est bijective si et seulement : Kerf = {0 E } et Imf = F Théorème Soit f : E → F une application linéaire bijective. Alors f -1 est une application linéaire de F dans E.

APPLICATIONS LINEAIRES Exemple Soit f : R 2 → R 2 définie par : f(x,y) = (x+y,x+y) Imf = {f(x,y) / (x,y)  R 2 } Imf = {(x+y,x+y) / (x,y)  R 2 } Imf = {(x+y).(1,1) / (x,y)  R 2 } Imf = {.(1,1) /  R} Imf = Kerf =

APPLICATIONS LINEAIRES Rang d’une application linéaire Définition : le rang d’une application linéaire f : E → F est la dimension de l’espace vectoriel Imf. rg(f) = dim(Imf) Remarque : étant donné une base { e 1,…,e n } de E, le rang de f est égal au nombre maximum de vecteurs linéairement indépendants de {f(e 1 ),…,f(e n )}. Théorème noyau / image : soit E et F deux espaces vectoriels de dimension finie et f : E → F une application linéaire. Alors on a : dimE = dim(Kerf) + dim(Imf)

APPLICATIONS LINEAIRES Conséquences pratiques soit E et F deux espaces vectoriels de dimension finie et f : E → F une application linéaire. –f est injective si et seulement si rg(f) = dimE. –f est surjective si et seulement si rg(f) = dimF. –f est bijective si et seulement si rg(f) = dimE = dimF. Exemple Soit f : R 2 → R 2 définie par : f(x,y) = (x+y,x+y) Imf = → dimF = 1 = rg(f) Kerf = → dim(Kerf) = 1 dim(R 2 ) = =2

MATRICES Définition Une matrice M à n lignes et p colonnes est un tableau de nombres réels comportant n lignes et p colonnes. a 11 a 12 …a 1p.... M =.. a ij. i ème ligne.... a n1 a n2 …a np j ème colonne M = [a ij ] 1≤i≤n, 1≤j≤p

MATRICES L’ensemble des matrices à n lignes et p colonnes se note M (n,p). Exemples 2 lignes, 3 colonnes 2 lignes, 2 colonnes B est une matrice carrée.

MATRICES Matrice identité d’ordre 2 d’ordre n (n lignes, n colonnes)

MATRICES Matrice diagonale Matrice triangulaire supérieureinférieure

MATRICES Opérations sur les matrices –Somme A  M (n,p), B  M (n,p) C = A + B C ij = a ij + b ij Exemple

MATRICES –Produit par un nombre réel A  M (n,p),  R D =.A d ij = a ij Exemple

MATRICES Propriété de M (n,p) M (n,p) muni de l’addition des matrices et du produit par les nombres réels est un espace vectoriel de dimension np. Une base de cet espace vectoriel est formée par les matrices I ij, où I ij est la matrice ayant l’élément 1 à l’intersection de la i ème ligne et de la j ème colonne et ne comportant que des zéros ailleurs.

MATRICES Exemple

MATRICES Produit de deux matrices A  M (n,p), B  M (p,m) C = A x B C  M (n,m) C = [c ij ] 1≤i≤n, 1≤j≤m

MATRICES Exemple

MATRICES Propriétés A x (B + C) = A x B + A x C A x (B x C) = (A x B) x C Remarques 1) En général, A x B ≠ B x A. Il se peut même que B x A ne soit pas défini. 2) A x B = A x C ⇏ C = B

MATRICES Transposition Soit M = [a ij ]. La transposée de M, notée t M, est la matrice dont les éléments sont a ji. Exemple

MATRICES Propriétés de la transposition t (M+P) = t M + t P t (AB) = t B t A t ( t M) = M Définition Une matrice M est symétrique si et seulement si M = t M. Remarque Une matrice symétrique est forcément carrée.

MATRICES Lien entre matrices et applications linéaires –A toute matrice M  M (n,p) on peut associer une application linéaire : f : R p R n X Y = M.X –A toute application linéaire f : R p R n, on peut associer une matrice qui dépend du choix de la base { e 1,…,e p } dans l’espace de départ et du choix de la base { f 1,…,f n } dans l’espace d’arrivée.

MATRICES

Exemple f : R 2 → R 2 f(x,y) = (5x + 2y,8x +3y) {(1,0), (0,1)}, la base canonique de R 2 (espace de départ et d’arrivée). f(1,0) = (5,8) f(0,1) = (2,3) Matrice associée à f :

MATRICES Exemple f : R 2 → R 2 f(x,y) = (5x + 2y,8x +3y) {(1,1), (1,0)} comme base de l’espace de départ et {(1,0), (0,1)} comme base de l’espace d’arrivée. f(1,1) = (7,11) f(1,0) = (5,8) Matrice associée à f :

DETERMINANTS Le déterminant d’une matrice n’est défini que pour une matrice carrée. Déterminant d’ordre 2 Notations detA ou

DETERMINANTS Déterminant d’ordre 3 Mineur M ij : déterminant de la sous matrice obtenue en supprimant la i ème ligne et la j ème colonne M 11

DETERMINANTS

Déterminant d’ordre 3 On peut développer un déterminant suivant une ligne ou une colonne. Suivant la première colonne : detA = a M 11 – a’M 21 + a’’M 31 Suivant la première ligne : detA = a M 11 – bM 12 + cM 13 Le signe que l’on met devant le mineur M ij est (-1) i+j.

DETERMINANTS Exemple Suivant la deuxième ligne :

DETERMINANTS Propriétés des déterminants d’ordre 2

DETERMINANTS

Déterminant d’ordre n M ij est un mineur d’ordre (n - 1) obtenu en supprimant la i ème ligne et la j ème colonne. Remarque : pour simplifier les calculs, choisir une ligne ou une colonne comportant le maximum de zéros.

DETERMINANTS Propriétés Soit A une matrice carrée d’ordre n 1)det( A) = n detA 2)det( t A) = detA 3)det(A.B) = detA.detB 4)det(A n ) = (detA) n

DETERMINANTS Propriétés (suite) 5)Déterminant d’une matrice diagonale 6)Déterminant d’une matrice triangulaire 0 0 0

DETERMINANTS Propriétés (suite) 7)Déterminant d’une matrice inversible Soit A une matrice inversible, c’est-à-dire, une matrice A telle qu’il existe une matrice vérifiant : Alors detA ≠0 et

DETERMINANTS Propriétés (suite) 8)Manipulation sur les lignes

DETERMINANTS Propriétés (suite) 8)Manipulation sur les lignes

DETERMINANTS Vecteurs linéairement indépendants de R n Soit { u 1,…,u n } n vecteurs de R n. Alors u 1,…,u n sont linéairement indépendants si et seulement si le déterminant de la matrice dont les colonnes sont formées par ces vecteurs est différent de 0. Exemple Les vecteurs et sont linéairement indépendants car :

DETERMINANTS Rang d’un système de vecteurs Le rang du système de vecteurs {u 1,…,u n } est l’ordre du plus grand sous déterminant non nul que l’on peut extraire de la matrice dont les colonnes sont constituées par ces vecteurs. Exemple

DETERMINANTS Matrice associée à {u 1, u 2, u 3 } Rang {u 1, u 2, u 3 } = 3. Les vecteurs {u 1, u 2, u 3 } forme une partie libre de R 4.

SYSTEMES LINEAIRES Système linéaire Y=AX A : matrice à n lignes et p colonnes X un vecteur de R p, Y un vecteur de R n. Ce système s’écrit : a 11 x 1 +…+ a 1p x p = y 1 … a n1 x 1 +…+ a np x p = y n n équations, p inconnues. Une solution de ce système est un p-uplet (x 1,…,x p ) qui vérifie les n équations.

SYSTEMES LINEAIRES Système de Cramer Y=AX A : matrice carrée d’ordre n Si detA ≠0, le système admet une solution unique. On dit que c’est un système de Cramer. On peut écrire la solution de cette équation sous la forme de rapports de déterminants.

SYSTEMES LINEAIRES Exemple C’est un système de Cramer car :

SYSTEMES LINEAIRES La solution s’écrit :

SYSTEMES LINEAIRES Remarque Cette méthode est peu utilisable pour résoudre numériquement des systèmes réels (n élevé). Elle a surtout un intérêt théorique.

SYSTEMES LINEAIRES Méthode du pivot de Gauss Le principe de la méthode consiste à éliminer une ou plusieurs variables par combinaisons linéaires entre les équations du système pour le transformer en un système triangulaire facile à résoudre. Cas p = n Il y a autant d’équations que d’inconnues Exemple :

SYSTEMES LINEAIRES Représentation du système linéaire par une matrice

SYSTEMES LINEAIRES Recherche dans la première colonne d’un nombre égal à 1 (appelé pivot)

SYSTEMES LINEAIRES Echanger la ligne du pivot avec la première ligne

Faire apparaître des zéros sous le pivot de la première colonne Multiplier par 2 la ligne du pivot Soustraire le résultat de la deuxième ligne - SYSTEMES LINEAIRES X 2

Faire apparaître des zéros sous le pivot de la première colonne SYSTEMES LINEAIRES Multiplier la ligne du pivot par (-1) et soustraire de la troisième ligne

On ne modifie plus la première ligne On passe à la deuxième colonne On permute la deuxième et troisième ligne Il n’y a pas de 1 dans la deuxième colonne : on divise par 6 la deuxième ligne SYSTEMES LINEAIRES

Faire apparaître un zéro sous le 1 de la deuxième colonne Pour cela, on multiplie la deuxième ligne (ligne du pivot) par (-11) et on la retranche de la troisième.

SYSTEMES LINEAIRES On ne modifie plus la deuxième ligne. On fait apparaître un 1 dans la troisième colonne (dernier pivot) à la troisième ligne.

SYSTEMES LINEAIRES Retour au système d’équations Le système décrit par la matrice : correspond au système triangulaire d’équations :

SYSTEMES LINEAIRES Solution du système triangulaire z = 13 y = 3 x = 2

SYSTEMES LINEAIRES Méthode du pivot : cas p=n Etape 1 : construire le tableau :

SYSTEMES LINEAIRES Méthode du pivot : cas p=n Etape 2 Si, passer à l’étape 3. On appelle le pivot. Si, et, diviser la ligne L 1 par et passer à l’étape 3. Si, on choisit dans la première colonne de A un élément. On échange ensuite la ligne du pivot avec la première ligne.

SYSTEMES LINEAIRES Méthode du pivot : cas p=n Etape 3 Pour chaque i  {2,…,n} on remplace la ligne L i par L i –a i1 L 1, on obtient la matrice :

SYSTEMES LINEAIRES Méthode du pivot : cas p=n On poursuit alors par itération sur les colonnes : on retourne à l’étape 1, mais en considérant la deuxième colonne, puis la troisième,…jusqu’au pivot. Remarques - Si au cours du processus on tombe sur une ligne ne comportant que des zéros, on la supprime. - S’il apparaît une ligne composée de zéros sauf pour la dernière colonne, le système n’a pas de solution.

SYSTEMES LINEAIRES Méthode du pivot : cas p=n On peut transformer le système linéaire triangulaire obtenu en un système linéaire diagonal et lire directement la solution lorsqu’il y en a une. Reprenons la matrice obtenue dans l’exemple précédent.

SYSTEMES LINEAIRES Méthode du pivot : cas p=n On part de la troisième colonne et on fait apparaître des zéros au dessus de la dernière ligne par la même méthode que précédemment.

SYSTEMES LINEAIRES Méthode du pivot : cas p=n On continue avec la deuxième colonne.

Méthode du pivot : cas p≠n Soit r le rang de la matrice A. Supposons n<p et r=n. Exemple SYSTEMES LINEAIRES

Exemple SYSTEMES LINEAIRES

Exemple SYSTEMES LINEAIRES

Exemple On remarque que le rang de la nouvelle matrice A est 2 car : SYSTEMES LINEAIRES

Exemple On obtient donc le système d’équations : qui a une infinité de solutions s’exprimant à l’aide de la variable auxiliaire z : SYSTEMES LINEAIRES

Méthode du pivot : cas p≠n Soit r le rang de la matrice A. Supposons r<n≤p. Exemple SYSTEMES LINEAIRES

Exemple SYSTEMES LINEAIRES

Exemple SYSTEMES LINEAIRES

Exemple SYSTEMES LINEAIRES Supprimer la ligne de zéros

Exemple On revient au système exprimé par le dernier tableau. Le système possède une infinité de solutions s ’écrivant à l’aide de la variable auxiliaire z. SYSTEMES LINEAIRES

Principe du calcul de l’inverse d’une matrice carrée Soit A une matrice carrée telle que detA≠0. Alors l’inverse de A, noté A -1 existe. Supposons par exemple que A est une matrice carrée d’ordre 3. On cherche une matrice A -1 : INVERSION DES MATRICES Méthode du pivot de Gauss

Ce problème est équivalent à la résolution de trois systèmes linéaires : On va appliquer la méthode du pivot de Gauss pour résoudre simultanément ces trois systèmes. INVERSION DES MATRICES

Exemple Tableau représentant les trois systèmes à résoudre : INVERSION DES MATRICES

Exemple INVERSION DES MATRICES

Exemple INVERSION DES MATRICES

Exemple INVERSION DES MATRICES

Exemple INVERSION DES MATRICES

Exemple INVERSION DES MATRICES I3I3 Inverse de A

INVERSION DES MATRICES Méthode de la comatrice Exemple Comatrice : matrice des cofacteurs Cofacteur de 1:

INVERSION DES MATRICES Méthode de la comatrice Exemple (suite) Transposée de la comatrice : Déterminant de A : det(A) = 2 Inverse de A

CALCUL INTEGRAL Introduction Intégrale de Riemann Propriétés Primitives Techniques d’intégration

CALCUL INTEGRAL Aire d’une partie de R 2

CALCUL INTEGRAL Approximation d’une aire Approximation par défautApproximation par excès

CALCUL INTEGRAL Aire d’une région sous le graphe d’une fonction continue sur [a,b]

CALCUL INTEGRAL Intégrale d’une fonction continue sur [a,b] Soit f une fonction continue sur [a,b]. On partage le segment [a,b] en n sous intervalles de même longueur et l’on pose : Pour 1 ≤ i ≤ n, soit un point du segment [x i-1, x i ]. On appelle intégrale définie de f sur [a,b] le nombre défini par :

CALCUL INTEGRAL Approximation d’une intégrale par une somme de Riemann La somme s’appelle une somme de Riemann. milieu de