La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Séminaire II : Corrélation et analyse multidimensionnelle Plan 1 – Corrélation 1.1. Notion de droite de régression 1.1.1. Calcul des coefficients d’une.

Présentations similaires


Présentation au sujet: "Séminaire II : Corrélation et analyse multidimensionnelle Plan 1 – Corrélation 1.1. Notion de droite de régression 1.1.1. Calcul des coefficients d’une."— Transcription de la présentation:

1 Séminaire II : Corrélation et analyse multidimensionnelle Plan 1 – Corrélation 1.1. Notion de droite de régression Calcul des coefficients d’une droite de régression Trois façons de résumer un nuage de point 1.2. Coefficient de corrélation Définition Critères caractérisant la relation entre deux caractères Calcul du coefficient de corrélation de Pearson Significativité d’une relation Caractères trompeurs d’une relation Corrélation partielle 2 – Les analyses multidimensionnelles 2.1. Introduction 2.2. Etapes d’une analyse multidimensionnelle 2.3. Les principales analyses multidimensionnelles L’ACP L’analyse factorielle (AF) Quelques mots sur les analyses confirmatoires

2 1 – Corrélation Problématique générale = étudier la relation qui existe (ou pas !) entre 2 variables (une variable x et une variable y). La relation est exprimée par un coefficient de corrélation. e.g, Corrélation entre 2 épreuves signifie qu’il y a une dimension psychologique partagée par ces 2 épreuves

3 1 – Corrélation Notion de droite de régression sujetspoidstaillesujetspoidstaille S164173S S261171S S362174S S484182S S556170S S659171S S768179S S874175S S971176S S S S S S S S S S S S S S S S S S S S S S S

4 1 – Corrélation Notion de droite de régression Il est possible de représenter graphiquement ces données au moyen de 2 axes dans un plan : axe des x et axe des y. Chaque point correspond à l’un des couples (x, y) du tableau précédent = nuage de points Taille Poids

5 Déterminer la droite d’ajustement qui rend le mieux compte de cette distribution 1 – Corrélation Notion de droite de régression Méthode des moindres carrés = déterminer les coefficient a et b de l’équation y=ax + b Déterminer une droite dont le tracé consistera à minimiser l’écart au carré des distances de chaque point par rapport à cette droite. On cherche à minimiser la somme des carrés des écarts (= variance) entre les valeurs estimées et les valeurs observées de la variable dépendante

6 Déterminer la droite d’ajustement qui rend le mieux compte de cette distribution 1 – Corrélation Notion de droite de régression Méthode des moindres carrés = déterminer les coefficient a et b de l’équation y=ax + b Déterminer une droite dont le tracé consistera à minimiser l’écart au carré des distances de chaque point par rapport à cette droite. On cherche à minimiser la somme des carrés des écarts (= variance) entre les valeurs estimées et les valeurs observées de la variable dépendante

7 Déterminer la droite d’ajustement qui rend le mieux compte de cette distribution 1 – Corrélation Notion de droite de régression Méthode des moindres carrés = déterminer les coefficient a et b de l’équation y=ax + b Déterminer une droite dont le tracé consistera à minimiser l’écart au carré des distances de chaque point par rapport à cette droite. On cherche à minimiser la somme des carrés des écarts (= variance) entre les valeurs estimées et les valeurs observées de la variable dépendante x1 M1 y1 P1 ax1+b M3 M4 M2 M5

8 1 – Corrélation Notion de droite de régression : calcul des coefficients a et b Exemple simple de calcul des coefficients a et b dans l’équation y=ax+b Si on a 3 points avec pour coordonnées respectives (A= 2, 5 ; B= 3, 7 et C= 4, 10), pour calculer a et b on cherche deux équations D’où deux équations à résoudre : 29a + 9b = 71 9a + 3b = 22 D’où a = 2.5 et b = - 0,167 L’équation de la droite est donc y = 2,5x – 0,167 Dans l’exemple : = (2*5) + (3*7) + (4*10) = 71 = = 9 = = 29 = = 22 N = 3

9 1 – Corrélation Notion de droite de régression : résumé d’un nuage de point Droite exprimant la relation moyenne entre X et Y Droite exprimant X en fonction de Y Droite exprimant Y en fonction de X

10 1 – Corrélation Coefficient de corrélation Coefficient de corrélation = Mesure du degré de dépendance entre deux phénomènes de nature statistique ou probabiliste. On dit qu'il existe une relation entre X et Y si l'attribution des modalités de X et de Y ne se fait pas au hasard, c'est à dire si les valeurs de X dépendent des valeurs de Y ou si les valeurs de Y dépendent des valeurs de X. Dire que Y dépend de X signifie que la connaissance des valeurs de X permet de prédire, dans une certaine mesure, les valeurs de Y

11 1 – Corrélation Coefficient de corrélation : définition  Relation linéaire : suppose qu’il existe une relation monotone entre les x et les y.  Evaluée à l’aide du coefficient de corrélation r de Bravais Pearson  Le r de Bravais Pearson peut prendre toutes les valeurs réelles comprises dans l’intervalle [-1, 1].  Plus la valeur absolue de r est proche de 1, plus il y a de conformité avec le modèle linéaire  Un indice positif indique que les deux variables « évoluent » dans le même sens  Un indice négatif indique qu’il existe une relation inverse entre les variables x et y  Le coefficient de corrélation est un indice indépendant de la moyenne  Permet par exemple de déterminer le classement d’un individu sur deux test

12 1 – Corrélation Coefficient de corrélation : critères Relation entre deux caractères  diagramme de corrélation (diagramme croisant les modalités de X et de Y). Chaque élément i est représenté par le point de coordonnées (Xi,Yi). L'ensemble des points forme un nuage de points dont la forme permet de caractériser la relation à l'aide de trois critères :  Intensité de la relation  Forme de la relation  Sens de la relation

13 1 – Corrélation Coefficient de corrélation : critères Intensité de la relation Absence de relationRelation faibleRelation forte

14 1 – Corrélation Coefficient de corrélation : critères Forme de la relation relation non-linéaire et non- monotone relation non-linéaire et monotone relation linéaire (toujours monotone)

15 1 – Corrélation Coefficient de corrélation : critères Sens de la relation relation linéaire positive relation linéaire négative relation non linéaire positive relation non linéaire négative

16 1 – Corrélation Coefficient de corrélation : calcul Ce coefficient permet de détecter la présence ou l'absence d'une relation linéaire entre deux caractères quantitatifs continus. Pour calculer ce coefficient il faut tout d'abord calculer la covariance. La covariance est la moyenne du produit des écarts à la moyenne. NB : La covariance de deux variables réelles permet de mesurer la dépendance linéaire des variables, c´est à dire la façon dont deux variables X et Y varient simultanément. Globalement, lorsque X croît (ou décroît) et Y croît (ou décroît), la covariance est positive. Covariance nulle = indépendance des variables

17 1 – Corrélation Coefficient de corrélation : calcul Le coefficient de corrélation linéaire de deux caractères X et Y est égal à la covariance de X et Y divisée par le produit des écarts-types de X et Y Le coefficient de corrélation peut se calculer directement à l’aide des formules suivantes :

18 1 – Corrélation Coefficient de corrélation : calcul et limites  En principe, le coefficient de Pearson n'est applicable que pour mesurer la relation entre deux variables X et Y ayant une distribution de type gaussien et ne comportant pas de valeur exceptionnelles. Si ces conditions ne sont pas vérifiées (cas fréquent...) l'emploi de ce coefficient peut aboutir à des conclusions erronées sur la présence ou l'absence d'une relation.  On notera également que l'absence d'une relation linéaire ne signifie pas l'absence de toute relation entre les deux caractères étudiés.

19 1 – Corrélation Coefficient de corrélation : significativité et validité d’une relation Coefficient de corrélation : en lui-même, il n’est qu’une étape exploratoire de l’analyse. Il doit être validé par un test de la significativité de la relation et par une vérification de la validité de la relation (absence de biais).

20 1 – Corrélation Coefficient de corrélation : significativité d’une relation Le coefficient de corrélation ne renseigne pas sur le degré de significativité d'une relation car celle-ci dépend également du nombre d'observations. NB : il faut connaître l’échantillon pour connaître la significativité (ensuite table) Exemple : - Un r de établi sur un échantillon de 10 personnes n'est pas significatif au seuil de 5% (il peut s'agir d'un hasard). - Un r de établi sur un échantillon de 200 personnes est significatif au seuil de 5% (la taille de l'échantillon fait que la relation, bien que faible a peu de chances d'être due au hasard).

21 1 – Corrélation Coefficient de corrélation : significativité d’une relation Pour déterminer si une relation est significative, il faut procéder à un test d'hypothèse : (1) H0 : il n'y a pas de relation entre les deux caractères X et Y (2) On se fixe un risque d'erreur pour le rejet de H0 (exemple alpha=5%) (3) On calcule la valeur absolue du coefficient de corrélation r(X,Y) dans la table correspondante (Pearson ou Spearman) (4) On calcule la valeur théorique r(alpha, N.) de ce coefficient qui n'est dépassé que dans alpha % des cas (5) On teste H0 vraie si r(alpha, d.d.l.) > abs[ r(X,Y) ] (6) On accepte ou rejette H0

22 1 – Corrélation Coefficient de corrélation : validité d’une relation Le fait que le test de significativité permet de rejeter l'hypothèse d'indépendance ne doit pas amener à conclure trop vite à l'existence d'une relation. Celle-ci peut souvent être la conséquence de biais liés à un mauvais respect des conditions d'utilisation des coefficients de corrélation. Ici le coefficient de corrélation est nul, pourtant il y a un lien entre les deux variables. Lien qui n’est pas une relation de linéarité

23 1 – Corrélation Coefficient de corrélation : validité d’une relation Influence d’une valeur exceptionnelle Dans cet exemple, le calcul du coefficient de corrélation de Pearson aboutirait à l'idée qu'il existe une corrélation positive (+0.54) mais non significative (au seuil de 5%) entre les deux variables  cette corrélation positive résulte uniquement de l'influence du point exceptionnel (9,9). Si l'on retire ce dernier, on obtient une corrélation négative (-0.67) et significative (au seuil de 5%) entre les deux variables.

24 1 – Corrélation Coefficient de corrélation : validité d’une relation Emboîtement de relation et composante d’échelle Dans cet exemple il n'est pas faux de conclure à l'existence d'une relation positive significative (+0.75) mais celle-ci est le résultat des différences de comportement de trois sous populations à l'intérieur desquelles la relation est au contraire rigoureusement négative. Il existe donc une composante d'échelle dans la relation observée et les conclusions seront très variables selon l'échantillon considéré.

25 1 – Corrélation Coefficient de corrélation : résumé a) L’objectif est d’étudier les relations entre deux mesures (2 VD). Evaluer l’existence d’une part de variance commune à 2 tests. Permettre de prédire les scores à un test en connaissant les scores à un autre test qui lui est corrélé. Attention, l’existence d’une corrélation entre deux tests ne signifie pas que les deux tests mesurent exactement la même dimension psychologique b) La moyenne (indice de tendance centrale) et la corrélation sont deux indices indépendants.

26 1 – Corrélation Coefficient de corrélation : résumé d) L’interprétation de la corrélation dépend de la taille de l’échantillon. e) Une corrélation nulle ne signifie pas l’absence de relation, mais uniquement qu’il n’y a pas de relation linéaire (il peut y avoir une relation quadratique, exponentielle, etc.) f) Pour connaître le pourcentage de variance expliquée d’une variable Y par une variable X : r 2 *100 (coefficient de détermination)

27 2 – Analyse multidimensionnelle Introduction Analyses statistiques dont le but est de simplifier, décrire, résumer les groupes de données complexes (i.e. généralement sur des matrices de corrélation ou covariances à plusieurs variables) en fournissant des facteurs d’organisation des données initiales. Permet la représentation simultanée de plusieurs dimensions à partir de facteurs synthétiques.

28 2 – Analyse multidimensionnelle Introduction sujetspoidstaille S S S S S S S S S S S S S S S S S S S S poidstaille moyenne67,7174,6 écart type8,15,7 coeff. corrélation0,86 2 variables = 5 nombres nécessaires pour résumer les données (2 indices de tendance centrale; 2 indices de dispersion et un indice d’association entre ces 2 variables). Pour p variables, on doit calculer p indices de tendance centrale, p indices de dispersion, mais aussi (p 2 -p)/2 indices d’association entre ces variables (si 10 mesures = 10 indices de tendance centrale, 10 indices de dispersion et ( )/2 indices d’association), donc 45 nombres pour résumer les données.

29 2 – Analyse multidimensionnelle Introduction : vocabulaire / définitions Facteur : Dimension latente, non directement observable, que l’on tente d’étudier en recueillant un certain nombre de variables censées mesurer cette dimension. Saturation : Corrélation entre la variable et le facteur (dimension hypothétique). On dit que le facteur sature telles ou telles variables : ce sont les variables qui ont le plus participé à la constitution du facteur ; l’information ainsi contenue dans la dimension extraite a été fournie surtout par ces items. NB. La saturation au carré représente la pourcentage de variance, de la variable (ou item), expliquée par le facteur. Valeur propre : Part de la variance totale expliquée par un facteur ou importance de chaque facteur dans l’explication des notes du sujet. Communauté : Part de la variance d’une variable expliquée par l’ensemble des facteurs retenus.

30 2 – Analyse multidimensionnelle Principes et étapes  Principe : en se basant sur la matrice des corrélations ou covariance entre les diverses variables observées, l’analyse factorielle consiste à rechercher la part de variance commune (d’information) à ces variables. Il s’agit de construire une nouvelle variable (construit mathématique) : extraction d’un 1er facteur qui résume le mieux possible l’information partagée par l’ensemble des variables.  Après avoir délester les variables de cette 1ère information, l’analyse réitère l’opération à partir de la variance résiduelle : elle chercher un second facteur non corrélé au premier (notion d’orthogonalité et d’indépendance), susceptible d’expliquer la variance restante.  L’opération est réitérée jusqu’à ce que les variables ne présentent plus de communauté suffisante pour permettre l’extraction d’un nouveau facteur.

31 2 – Analyse multidimensionnelle Principes et étapes  Construire ou sélectionner une batterie d’observations, ou mesures (e.g, un test d’intelligence)  Sélectionner la population à qui le test va être administré  Calculer la corrélation entre les scores sur toutes les paires de tests = matrice des corrélations  Analyse factorielle sur la matrice des corrélations  2 tableaux : l’un donnant le pourcentage de variance expliquée (valeurs propres) et l’autre indiquant l’ensemble des saturations.  Décider du nombre de facteurs à retenir  Décider si une rotation est nécessaire et quelle rotation (dépend des hypothèses de recherche)  Interpréter les facteurs

32 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP  Identifier des facteurs indépendants, qui rendent compte de toute la variance.  Nombre maximum de facteurs = nombre total de variables  Interpréter les facteurs sélectionnés au préalable : travail du psychologue !! NB : Préalablement à la mise en œuvre d’une ACP  centrer toutes les notes des sujets sur la moyenne, ce qui revient, géométriquement, à déplacer les axes X1 et X2 en X’1 et X’2.

33 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : exemple Matrice de corrélation testAtestBtestCtestDtestEtestFtestG testA1 testB0,991 testC1,000,991 testD0,900,850,901 testE0,200,170,200,221 testF0,170,130,170,200,991 testG0,040,000,030,070,85 1 testH0,230,25 0,24-0,08-0,07-0,17

34 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : exemple Tableau des saturations F1F2F3F4F5F6F7F8 testA0,96-0,25-0,110,000,090,01-0,010,02 testB0,94-0,28-0,09-0,050,17-0,010,020,00 testC0,96-0,25-0,09-0,010,070,01-0,02-0,01 testD0,91-0,19-0,060,11-0,34-0,010,010,00 testE0,450,870,09-0,16-0,01-0,080,00 testF0,420,880,11-0,16-0,060,080,00 testG0,270,900,030,330,100,00 testH0,26-0,310,910,030,020,00

35 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : exemple Tableau des saturations au carré F1F2F3F4F5F6F7F8Communauté testA0,920,060,010,000,010,00 1,00 testB0,880,080,010,000,030,00 1,00 testC0,920,060,010,00 1,00 testD0,830,040,000,010,120,00 1,00 testE0,200,760,010,030,000,010,00 1,00 testF0,170,780,010,030,000,010,00 1,00 testG0,070,800,000,110,010,00 1,00 testH0,070,100,840,00 1,00 Valeurs propres4,072,680,890,180,170,010,00 % de variance expliquée50,8233,411,092,242,180,160,01 Communauté (entre 0 et 1) : Variance d’une variable expliquée par les n facteurs retenus

36 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : exemple Graphique saturation

37 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : rotation Rotation = processus mathématique qui permet de faciliter l’interprétation des facteurs en maximisant les saturations les plus fortes et en minimisant les plus faibles (maximiser la variance). Rotations = construction de nouvelles variables (composantes), fonctions des anciennes, dans lesquelles on exprimera les scores des sujets. Rotations = rotations des axes  ne sont pas faites au hasard, elles obéissent à des règles précises :  La dispersion des points doit être maximum sur le premier axe.  L’information perdue, si l’on représentait les sujets uniquement sur le premier axe, doit être minimum. Autrement dit, l’écart entre la distance initiale des sujets dans le plan et la distance suite à leur projection sur l’axe Y1 est minimisé.  Les axes suivants (Y2, Y3,…) doivent être indépendants (orthogonaux, perpendiculaires) du premier axe.

38 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : rotation (exemple) Tableau des saturations après rotation Varimax testA0,9940,0760,0730,002-0,015-0,004-0,010-0,016 testB0,9880,0440,097-0,018-0,1050,0130,0270,002 testC0,9930,0720,094-0,0140,002-0,005-0,0160,015 testD0,8920,1070,0990,0010,427-0,001 0,000 testE0,1310,984-0,023-0,086-0,0040,0790,0010,000 testF0,0950,986-0,017-0,1010,035-0,079-0,0010,000 testG-0,0180,900-0,0990,4230,0020,000 testH0,161-0,0750,984-0,0130,0120,000

39 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : rotation (exemple) Avant rotation Valeur propre4,0662,6790,8870,1800,1740,0130,0010,000 % de la variance50,8233,48711,0912,2442,1800,1570,0120,006 Après rotation Valeur propre3,7982,7821,0120,1970,1950,0130,0010,000 % de la variance47,4734,78112,6552,4682,4410,1590,0130,006 Après rotation : redistribution de la variance

40 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : rotation (exemple) Avant rotationAprès rotation Varimax

41 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : réduction du nombre de facteurs et communauté 123Communauté testA0,9880,0060,0050,999 testB0,9760,0020,0090,988 testC0,9850,0050,0090,999 testD0,7960,0120,0100,817 testE0,0170,9690,0010,986 testF0,0090,9730,0000,982 testG0,0000,8110,0100,821 testH0,0260,0060,9680,999 Valeur propre3,7982,7821,012 % variance47,47834,78112,655

42 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : nombre de facteurs retenus Valeur propre : part de la variance expliquée par un facteur sur l’ensemble des variables Fac. Val. Propre% Var. 13,8047,48 22,7834,78 31,0112,65 40,202,47 50,202,44 60,010,16 70,000,01 80,000,01

43 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : différentes rotations  Méthode varimax. Méthode de rotation orthogonale qui minimise le nombre de variables ayant de fortes corrélations sur chaque facteur. Simplifie l'interprétation des facteurs.  Critère oblimin direct. Méthode de rotation oblique (non orthogonale).  Méthode quartimax. Méthode de rotation qui réduit le nombre de facteurs requis pour expliquer chaque variable. Simplifie l'interprétation des variables observées.

44 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : différentes rotations  Equamax. Méthode de rotation qui est une combinaison de la méthode Varimax (qui simplifie les facteurs) et de la méthode Quartimax (qui simplifie les variables). Le nombre de variables pesant sur un facteur et le nombre de facteurs nécessaires pour expliquer une variable sont minimisés.  Rotation Promax. Rotation oblique qui permet aux facteurs d'être corrélés. Peut être calculée plus rapidement qu'une rotation oblimin directe, aussi est-elle utile pour les vastes ensembles de données.

45 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 1) l’ACP : interprétation des facteurs 123 testA testB testC testD testE testF testG testH  Interpréter les différents facteurs : leur donner un nom  Pour interpréter les facteurs il faut savoir quelles dimensions sont mesurées par les épreuves (ou variables)  Un facteur = dimension psychologique si toutes les épreuves censées mesurer cette dimension vont dans le même sens

46 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 2) l’AFC (analyse en facteurs communs)  Objectif identique à l’ACP : réduire les données, déterminer les facteurs, déduire les dimensions psychologiques.  Suppose qu’il existe deux types de facteurs : communs (à plusieurs variables) et spécifiques (à chaque variable).  Ne s’intéresse pas à la variance spécifique de chaque variable. S’intéresse à la variance commune.  Rendre compte des corrélations observées et non pas de la variance totale.

47 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 2) l’AFC (analyse en facteurs communs)  Les facteurs ne sont pas considérés comme indépendants  La variance spécifique à une variable n’est pas prise en compte  On cherche à expliquer la variance commune à au moins 2 variables  Le nombre de facteurs peut être plus important que le nombre de variables Test ATest BTest CTest D Test A.76 Test B Test C Test D Traduit ce qui reste de commun avec les autres épreuves

48 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 3) Les analyses confirmatoires  Analyse exploratoire : structure des variables latentes (facteurs) n’est pas connue a priori  Analyse confirmatoire : hypothèse sur la structure des variables latentes Principes  Modèle a priori  Tester le modèle : hypothèse que le modèle est plausible  Collecter des données sur l’ensemble des variables spécifiées dans le modèle  Les données correspondent-elles au modèle ?  Imposer une structure des données (forcer les données)  Données = modèle + résidus

49 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 3) Les analyses confirmatoires Deux types de modèles : mesure et structure Modèle de mesure : défini les relations entre les variables observées et non- observées (entre les mesures et les construits) Modèle de structure : défini les relations entre les variables non-observées (quelle variable latente influence directement ou indirectement, telle ou telle autre variable latente)

50 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 3) Les analyses confirmatoires Variables latentes Exogènes : Synonyme de VI. Causent les fluctuations des valeurs des autres VL dans le modèle. Fluctuation des valeurs des VL_exogène n’est pas expliquée par le modèle mais par des facteurs externes au modèle (e.g, : âge, sexe, etc.) Endogènes : Synonyme de VD. Influencées par les VL_exogènes directement ou indirectement.

51 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 3) Les analyses confirmatoires

52 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 3) Les analyses confirmatoires

53 2 – Analyse multidimensionnelle Principales analyses multidimensionnelles 3) Les analyses confirmatoires Résumé :  Les analyses factorielles confirmatoires sont basées sur des modèles d’équations structurales : la structure est imposée  Les données sont-elles en adéquation avec le modèle ?  Possibilité de tester différents modèles théoriques et de choisir celui avec lequel les données sont le mieux en adéquation  Ces analyses sont indépendantes de l’échantillon


Télécharger ppt "Séminaire II : Corrélation et analyse multidimensionnelle Plan 1 – Corrélation 1.1. Notion de droite de régression 1.1.1. Calcul des coefficients d’une."

Présentations similaires


Annonces Google