La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 1 Régression multiple Quand et pourquoi on.

Présentations similaires


Présentation au sujet: "Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 1 Régression multiple Quand et pourquoi on."— Transcription de la présentation:

1 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 1 Régression multiple Quand et pourquoi on les utilise Modèle général de la régression multiple Épreuves dhypothèses Le problème de la multicollinéarité Marche à suivre Régression polynomiale

2 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 2 Modèles linéaires (GLM) *peuvent être discontinues ou traitées comme étant discontinues

3 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 3 Quand utiliser la régression multiple? Afin d estimer la relation entre une variable dépendante (Y) et plusieurs variables indépendantes (X 1, X 2, …) ex: la relation entre la production primaire, la concentration de phosphore et labondance du zooplancton Log [P] Log Production Log [P] Log Production Log [Zoo]

4 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 4 Le modèle général: qui définit un plan à k- dimensions, ou = ordonnée à lorigine, j = coefficient de régression partiel de Y sur X j, X ij est la valeur de la ième observation de la variable dépendante X j, et i est la valeur des résidus de la ième observation. Le modèle général de la régression multiple X2X2 X1X1 Y X2X2 X1X1 Y, X 1, X 2 ^ Y X, X 1 2.

5 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 5 Quest-ce que le coefficient de régression partiel? j est le taux de variation de Y pour une variation de X j quand toutes les autres variables sont maintenues constantes; Ce nest pas la pente de la régression de Y sur X j, regroupées pour toutes les autres variables! -4-2024 -8 -4 0 4 8 X1X1 Y X 2 = 3 X 2 = 1 X 2 = -1 X 2 = -3 Régression partielle Régression simple

6 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 6 Leffet de léchelle Deux variables indépendantes sur différentes échelles ont une pente différente, même si la variation proportionnelle de Y est la même Alors, si on veut comparer leffet relatif de chaque variable sur Y, on doit éliminer les effets de différentes échelles. Y j = 2 4 2 0 1 2 XjXj Y j =.02 4 2 0 100 200

7 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 7 Comme j dépend de la taille de X j, pour déterminer leffet relatif de chaque variable indépendante, on doit normaliser les coefficients de la régression: 1) en transformant toutes les variables et 2) en ajustant une régression sur les données transformées. Les coefficients normalisés j * donnent une estimation de leffet relatif de X j sur Y Le modèle de la régression multiple: version normalisée

8 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 8 Coefficients de régression: résumé Les coefficients de régression partielle: égaux à la pente de la régression de Y sur X j quand toutes les autres variables indépendantes sont maintenues constantes Les coefficients de régression normalisés: représentent le taux de changement Y ( en unités décart-type) par écart-type de X j lorsque toutes les autres variables sont maintenues constantes.

9 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 9 Hypothèses implicites Les résidus sont indépendants Les résidus sont homoscédastiques Linéarité des relations entre Y et tous les X Pas derreur de mesure sur les variables indépendantes Les résidus sont distribués normalement

10 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 10 Répartition de la somme des carrés totale en somme des carrés du modèle et des résidus: Épreuves dhypothèses I: répartition de la somme des carrés totale X2X2 X1X1 Y SC Modèle SC Totale SC Résidus

11 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 11 Épreuves dhypothèses I: répartition de la somme des carrés totale Alors, CM modèle = s 2 Y et Cm erreur = 0 si les valeurs observées = attendues pour tous les i calculer F = CM modèle /CM erreur et comparer à la distribution de F avec 1 et N-2 dl. H 0 : F = 1

12 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 12 Épreuves dhypothèses II: signification des coefficients de régression partielle Tester chaque hypothèse à laide dun test de t: Note: cest un test bilatéral! YY X 1, X 2 fixes H 01 : = 0, rejetée X 2 = 1 X 2 = 2 YY H 02 : 2 = 0, acceptée X 2, X 1 fixes X 1 = 2 X 1 = 3

13 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 13 Multicolinéarité Si les variables indépendantes sont corrélées, elles ne sont pas indépendantes. Lévaluation de la colinéarité se fait en regardant les matrices de covariance ou de corrélation X1X1 indépendantes X3X3 X2X2 colinéaires X2X2 Variance Covariance

14 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 14 Multicolinéarité: problèmes Si deux variables indépendantes X 1 et X 2 ne sont pas corrélées, la somme des carrés du modèle linéaire incluant les deux variables égale la somme des SC modèle de chacune pris séparément Toutefois, si elles sont corrélées, la somme des carrées sera plus petite Alors, si on a un modèle incluant X 1, de combien augmente la SS modèle quand X 2 est aussi inclus (ou vice versa)?

15 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 15 Multicolinéarité: conséquences Inflation de lerreur type des coefficients de régression une grande sensibilité des coefficients estimés et des erreurs types à de petits changements dans les données cependant, les estimés des coefficients de régression partielle ne sont pas biaisés une ou plusieurs variables peuvent ne pas apparaître dans le modèle final de la régression parce quelle covarie avec une autre variable indépendante

16 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 16 Détection de la multicolinéarité R 2 élevé mais peu de variables significatives Fortes corrélations entre les X Fortes corrélations partielles entre les variables indépendantes (si lune des variables indépendantes est une fonction linéaire de plusieurs autres) Valeurs propres, indice de condition, et facteur dinflation de la variance.

17 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 17 Quantifier les effets de la multicolinéarité Vecteurs propres: une série de lignes 1, 2,…, k dans un espace à k-dimensions. Ces vecteurs sont orthogonaux les uns par rapport aux autres Valeurs propres: la longueur des vecteurs correspondants X2X2 X1X1 X2X2 X1X1 1 1 2 2 1 2

18 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 18 Quantifier les effets de la multicolinéarité Les valeurs propres: si toutes les valeurs propres sont environ égales, il y a peu de multicolinéarité Indice de condition: racine carrée( l / s ); si près de 1, il y a peu de multicolinéarité Facteur dinflation de la variance: 1 - proportion de la variance des variables indépendantes expliquée par toutes les autres. Si près de 1, indique une faible colinéarité. X2X2 X1X1 X2X2 X1X1 Faible corrélation 1 = 2 Forte corrélation 1 >> 2

19 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 19 Solutions Récolter plus de données afin de réduire les corrélations Éliminer certaines variables indépendantes Régression sur les composantes principales ou ridge regression, qui mène à des estimés des coefficients biaisés mais avec des erreurs types plus petites

20 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 20 Régression multiple: principes de base Évaluer la signification dune variable en ajustant deux modèles: un incluant le terme, et lautre où il est enlevé. Tester pour les changements dans lajustement au modèle ( ) associés avec lexclusion du terme en question Malheureusement, peut dépendre de dautres variables sil y a multicolinéarité! Modèle A (X 1 inclus) Modèle B (X 2 exclus) G ou F (ex: R 2 ) Enlever X 1 (petit ) Garder X 1 (grand )

21 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 21 Ajustement de modèles de régression multiple But: trouver le meilleur modèle, avec les données disponiles Problème1: définition de meilleur? –R 2 le plus élevé? –La variance résiduelle la plus petite? –R 2 le plus élevé mais qui ne contient que des termes significatifs? –Qui maximise R 2 avec un minimum de variables indépendantes?

22 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 22 Sélection des variables indépendantes (suite) Problème 2: même avec une définition du meilleur modèle, quelle méthode doit-on utiliser pour le trouver? Possibilités: –calculer tous les modèles possibles (2 k -1) et choisir le meilleur –recourir à une procédure qui réduira le nombre de modèles à ajuster

23 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 23 Stratégie I: calculer tous les modèles possibles calculer tous les modèles possibles et choisir le meilleur désavantages: –coûte cher en temps –le problème de la définition du meilleur modèle reste entier avantages: –si on a une définition du meilleur modèle, on le trouvera! {X 1, X 2, X 3 } {X2}{X2} {X1}{X1} {X3}{X3} {X1, X2}{X1, X2} {X2, X3}{X2, X3} {X1, X3}{X1, X3} {X1, X2, X3}{X1, X2, X3}

24 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 24 Stratégie II: sélection progressive Commencer avec la variable dont le coefficient de corrélation partielle r est le plus élevé ajouter les autres une à une jusquà ce quil ny ait plus de j significativement différents de 0. problème: si X j est inclus, il restera dans le modèle même si sa contribution à SC modèle est minime. une fois les autres variables incluses. {X 1, X 2, X 3 } {X2}{X2} r 2 > r 1 > r 3 {X1, X2, X3}{X1, X2, X3} {X1, X2}{X1, X2} R R 2 R R 21 R 21 R 2 {X2}{X2} {X1, X2, X3}{X1, X2, X3} Modèle final R 123 R 21 {X 1, X 2 } R 123 R 21

25 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 25 Sélection progressive: ordre dentrée Commencer avec la variable dont le coefficient de corrélation partielle est le plus élevé ensuite, ajouter la variable qui provoque la plus grande augmentation du R 2 (test de F de la signification de laugmentation). On doit aussi spécifier un F seuil pour lentrée des variables dans le modèle {X 1, X 2, X 3, X 4 } {X2}{X2} r 2 > r 1 > r 3 > r 4 {X2, X1}{X2, X1} {X2, X4}{X2, X4} p[F(X 2, X 4 )] =.55 X 4 éliminé p dentrée =.05 {X2, X3}{X2, X3}{X2, X1}{X2, X1} p[F(X 2 )] =.001 p[F(X 2, X 1 )] =.002 p[F(X 2, X 3 )] =.04... {X2, X3}{X2, X3}

26 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 26 Stratégie III: Élimination rétrograde Commencer avec toutes les variables retirer du modèle les variables qui ne réduise pas significativement R 2. Les variables sont retirées une à la fois en commençant avec celle dont le coefficient de régression partielle est le plus bas Toutefois, une fois quune variable est retirée du modèle, elle reste exclue, et ce même si elle explique une portion significative de la variabilité une fois que dautres variables sont enlevées {X 1, X 2, X 3 } {X3}{X3} r 2 < r 1 < r 3 {X1, X3}{X1, X3} R R 13 R 3 R 13 R 13 R 123 {X3}{X3} {X1, X2, X3}{X1, X2, X3} Modèle final R R 123 R 13 R 123 R 3 R 13 {X1, X3}{X1, X3}

27 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 27 Élimination rétrograde: ordre dentrée Commencer avec la variable dont le coefficient de corrélation partielle est le plus faible. Continuer avec la variable qui provoque la plus petite réduction du R 2 (test de F pour déterminer la signification de laugmentation, F seuil) {X 1, X 2, X 3, X 4 } {X 2, X 1, X 3 } r 2 > r 1 > r 3 > r 4 {X2, X1}{X2, X1} p[F(X 2, X 1 )] =.25 p de sortie =.10 p[F(X 2, X 3 )] =.001... p[F(X 2, X 1, X 3 )] =.44 X 4 enlevé X 3 enlevéX 1, X 2 restent X 2, X 3, X 1 restent {X1, X3}{X1, X3}{X2, X3}{X2, X3} p[F(X 1, X 3 )] =.009

28 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 28 Stratégie IV: régression pas à pas Une fois quune variable est incluse (ou enlevée), on regarde dans les variables qui restent pour trouver dautres variables qui devraient être enlevées (incluses). On regarde aussi les variables qui sont déjà dans le modèle afin déviter dentrer dans une boucle, on doit spécifier les niveaux des p dentrée > p de sortie {X 1, X 2, X 3, X 4 } {X2}{X2} r 2 > r 1 > r 4 > r 3 {X 1, X 2, X 3 } {X2, X4}{X2, X4} p[F(X 2, X 4 )] =.03 p dentrée =.10 p de sortie =.05 {X2, X3}{X2, X3}{X2, X1}{X2, X1} p[F(X 2 )] =.001 p[F(X 2, X 1 )] =.002 p[F(X 2, X 3 )] =.09 {X 1, X 2, X 4 } p[F(X 1, X 2, X 4 )] =.02 p[F(X1, X 2, X 3 )] =.19 {X1, X4}{X1, X4}

29 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 29 Exemple Le log de la richesse en espèces des herptiles (logherp) est une fonction du log de laire du marais (logarea), du pourcentage de terre boisée dans un rayon de 1 km (cpfor2) et de la densité de routes pavées dans un rayon de 1 km (thtdens)

30 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 30 Exemple (toutes les variables) DEP VAR: LOGHERP N: 28 MULTIPLE R: 0.740 SQUARED MULTIPLE R: 0.547 ADJUSTED SQUARED MULTIPLE R:.490 STANDARD ERROR OF ESTIMATE: 0.162 VARIABLE COEFF. SE STD COEF. TOL. T P CONSTANT 0.285 0.191 0.000. 1.488 0.150 LOGAREA 0.228 0.058 0.551 0.978 3.964 0.001 CPFOR2 0.001 0.001 0.123 0.744 0.774 0.447 THTDEN -0.036 0.016 -0.365 0.732 -2.276 0.032

31 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 31 Exemple (suite) ANALYSIS OF VARIANCE SOURCE SS DF MS F-RATIO P REGRESSION 0.760 3 0.253 9.662 0.000 RESIDUAL 0.629 24 0.026

32 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 32 Exemple: sélection progressive DEPENDENT VARIABLE LOGHERP MINIMUM TOLERANCE FOR ENTRY INTO MODEL =.010000 FORWARD STEPWISE WITH ALPHA-TO-ENTER=.050 AND ALPHA-TO-REMOVE=.100 STEP # 0 R=.000 RSQUARE=.000 VARIABLE COEFF. SE. STD COEF. TOL. F 'P' IN --- 1 CONSTANT OUT PART. CORR --- 2 LOGAREA 0.596...1E+01 14.321 0.001 3 CPFOR2 0.305...1E+01 2.662 0.115 4 THTDEN -0.496...1E+01 8.502 0.007

33 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 33 Sélection progressive (suite) STEP # 1 R=.596 RSQUARE=.355 TERM ENTERED: LOGAREA VARIABLE COEFF. SE. STD COEF. TOL. F 'P' IN --- 1 CONSTANT 2 LOGAREA 0.247 0.065 0.596.1E+01 14.321 0.001 OUT PART. CORR --- 3 CPFOR2 0.382.. 0.99 4.273 0.049 4 THTDEN -0.529.. 0.98 9.725 0.005

34 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 34 Sélection progressive (suite) STEP # 2 R=.732 RSQUARE=.536 TERM ENTERED: THTDEN VARIABLE COEFF. SE. STD COEF.TOL. F 'P' IN --- 1 CONSTANT 2 LOGAREA 0.225 0.057 0.542 0.98 15.581 0.001 4 THTDEN -0.042 0.013 -0.428 0.98 9.725 0.005 OUT PART. CORR --- 3 CPFOR2 0.156.. 0.74380 0.599 0.447

35 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 35 Sélection progressive: modèle final FORWARD STEPWISE: P TO INCLUDE =.15 DEP VAR: LOGHERP N: 28 MULTIPLE R: 0.732 SQUARED MULTIPLE R: 0.536 ADJUSTED SQUARED MULTIPLE R:.490 STANDARD ERROR OF ESTIMATE: 0.161 VARIABLE COEFF. SE STD COEF. TOL. T P CONSTANT 0.376 0.149 0.000. 2.521 0.018 LOGAREA 0.225 0.057 0.542 0.984 3.947 0.001 THTDEN -0.042 0.013 -0.428 0.984 -3.118 0.005

36 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 36 Exemple: élimination rétrograde (modèle final) BACKWARD STEPWISE: P TO REMOVE =.15 DEP VAR: LOGHERP N: 28 MULTIPLE R: 0.732 SQUARED MULTIPLE R: 0.536 ADJUSTED SQUARED MULTIPLE R:.499 STANDARD ERROR OF ESTIMATE: 0.161 VARIABLE COEFF. SE STD COEF. TOL. T P CONSTANT 0.376 0.149 0.000. 2.521 0.018 LOGAREA 0.225 0.057 0.542 0.984 3.947 0.001 THTDEN -0.042 0.013 -0.428 0.984 -3.118 0.005

37 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 37 Exemple: subset model DEP VAR: LOGHERP N: 28 MULTIPLE R: 0.670 SQUARED MULTIPLE R: 0.449 ADJUSTED SQUARED MULTIPLE R:.405 STANDARD ERROR OF ESTIMATE: 0.175 VARIABLE COEFF. SE STD COEF. TOL. T P CONSTANT 0.027 0.167 0.000. 0.162 0.872 LOGAREA 0.248 0.062 0.597 1.000 4.022 0.000 CPFOR2 0.003 0.001 0.307 1.000 2.067 0.049

38 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 38 Que faire si la relation entre Y et le ou les X(s) nest pas linéaire? option 1: transformer les données option 2: utiliser une régression non-linéaire option 3: utiliser une régression polynomiale

39 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 39 Une régression polynomiale inclus des termes de degrés croissants de la variable indépendante Le modèle de la régression polynomiale 10 100 1000 1030507090110 Vitesse du courant (cm/s) Biomasse des mouches noires (mgDM/m²) Modèle linéaire Modèle polynomial de second ordre

40 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 40 Ajuster une régression linéaire simple Ajuster un modèle quadratique, vérifier sil y a augmentation de la SS modèle continuer en ajoutant des termes de degrés supérieur (X 3, X 4, etc..) jusquà ce que SS modèle naugmente plus de manière significative. Inclure les termes jusquà la puissance (nombre de points dinflexion plus 1) Le modèle de la régression polynomiale: marche à suivre 10 100 1000 1030507090110 Vitesse du courant (cm/s) Biomasse des mouches noires (mgDM/m²) Modèle linéaire Modèle polynomial de second ordre

41 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 41 Régression polynomiale: mise en garde La signification biologique des termes élevés à une certaine puissance est généralement inconnue par définition, les termes polynomiaux sont fortement corrélés: les erreurs types sont grandes (la précision est faible) et augmentent avec lordre du terme Les extrapolations de modèles polynomiaux sont toujours un non sens X1X1 Y Y = X 1 - X 1 2

42 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 42 Analyse de puissance pour GLM Dans tous les GLM, les hypothèses sont éprouvées au moyen dun test de F. Ne pas oublier: les SC erreur et dl erreur appropriés dépendent du type danalyse et des hypothèses que lon veut tester En connaissant F, on peut calculer R 2, la proportion de la variance totale de Y expliquée par le facteur (source) considéré

43 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 43 R 2 partiel et total R 2 total (R 2 YB ) est la proportion de la variance de Y expliquée par le groupe de variables indépendantes B. Le R 2 partiel (R 2 YA,B - R 2 YA ) est la proportion de la variance de Y expliquée par B quand la proportion de la variance expliquée par un autre groupe A est enlevée. Proportion de la variance expliquée par A et B (R 2 YA,B ) Proportion de la variance expliquée par A (R 2 YA )(R 2 total) Proportion de la variance expliquée par B indépendamment de A (R 2 YA,B - R 2 YA ) (R 2 partiel)

44 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 44 R 2 partiel et total R 2 total (R 2 YB ) pour un groupe B est égal au R 2 partiel (R 2 YA,B - R 2 YA ) si (1) R 2 total pour A (R 2 YA )=0; ou (2) si A et B sont indépendants (dans ce cas, R 2 YA,B = R 2 YA + R 2 YB ) Proportion de la variance expliquée par B (R 2 YB )(R 2 total) Proportion de la variance indépendante de A (R 2 YA,B - R 2 YA ) (R 2 partiel) A Y B A Égal si

45 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 45 R 2 partiel et total dans une régression multiple Si nous avons trois variables indépendantes X 1,X 2 and X 3 Log [P] Log Production Log [Zoo]

46 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 46 Définition de la grandeur de leffet pour une régression multiple La grandeur de leffet f 2 est égal au rapport entre R 2 facteur du facteur (source) et 1- R 2 erreur. À noter: les deux R 2 facteur et R 2 erreur dépendent de lhypothèse nulle que lon veut tester.

47 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 47 Cas 1: un groupe de variables B {X 1, X 2, …} est relié à Y, le R 2 total (R 2 YB ) est connu La proportion de la variance associée à lerreur est 1- R 2 YB H 0 : R 2 YB = 0 Exemple: leffet de laire des terres humides, du couvert forestier, de la densité des routes sur la richesse spécifique des reptiles et amphibiens du sud-est de lOntario. B ={LOGAREA, CPFOR2,THTDEN } Définition de la grandeur de leffet: cas 1

48 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 48 DEP VAR: LOGHERP N: 28 MULTIPLE R: 0.740 SQUARED MULTIPLE R: 0.547 ADJUSTED SQUARED MULTIPLE R:.490 STANDARD ERROR OF ESTIMATE: 0.162 VARIABLE COEFF. SE STD COEF. TOL. T P CONSTANT 0.285 0.191 0.000. 1.488 0.150 LOGAREA 0.228 0.058 0.551 0.978 3.964 0.001 CPFOR2 0.001 0.001 0.123 0.744 0.774 0.447 THTDEN -0.036 0.016 -0.365 0.732 -2.276 0.032

49 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 49 Définition de la grandeur de leffet: cas 2 Cas 2: la proportion de la variance de Y expliquée par B qui est plus grande que celle expliquée par A est donnée par (R 2 YA,B - R 2 YA ) La proportion de la variance associée à lerreur est de 1- R 2 YA,B H 0 : R 2 YA,B - R 2 YA = 0 Exemple: la richesse en espèces des herptile du sud-est de lOntario. B ={THTDEN}, A = {LOGAREA, CPFOR2},AB = {LOGAREA, CPFOR2, THTDEN}

50 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 50 DEP VAR: LOGHERP N: 28 MULTIPLE R: 0.670 SQUARED MULTIPLE R: 0.449 ADJUSTED SQUARED MULTIPLE R:.405 STANDARD ERROR OF ESTIMATE: 0.175 VARIABLE COEFF. SE STD COEF. TOL. T P CONSTANT 0.027 0.167 0.000. 0.162 0.872 LOGAREA 0.248 0.062 0.597 1.000 4.022 0.000 CPFOR2 0.003 0.001 0.307 1.000 2.067 0.049 DEP VAR: LOGHERP N: 28 MULTIPLE R: 0.740 SQUARED MULTIPLE R: 0.547 ADJUSTED SQUARED MULTIPLE R:.490 STANDARD ERROR OF ESTIMATE: 0.162 VARIABLE COEFF. SE STD COEF. TOL. T P CONSTANT 0.285 0.191 0.000. 1.488 0.150 LOGAREA 0.228 0.058 0.551 0.978 3.964 0.001 CPFOR2 0.001 0.001 0.123 0.744 0.774 0.447 THTDEN -0.036 0.016 -0.365 0.732 -2.276 0.032

51 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 51 Définition de la grandeur de leffet: cas 2 La proportion de la variance de LOGHERP expliquée par THTDEN (B) plus grande que la proportion expliquée par LOGAREA and CPFOR2 (A) est R 2 YA,B - R 2 YA =.098 la proportion de la variance expliquée par lerreur est égale à 1- R 2 YA,B = 1 -.547 Donc, la taille de leffet pour la variable THTDEN est 0.216.

52 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 52 Determination de la puissance Une fois que f 2 est déterminé, (a priori comme une hypothèse alternative ou a posteriori qui est la taille de leffet observée), on peut calculer le paramètre F non- central Si on connaît et les degrés de liberté associés au facteur (source) ( 1 ) et à lerreur ( 2 ), on peut déterminer la puissance à partir de tables pour un donné. =.05) =.01) 2 décroissant 1- 1 = 2 =.05 2345 =.01 11.52 2.5

53 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 53 Exemple: la richesse en espèces des amphibiens du sud-est de lOntario Échantillon de 28 terres humides 3 variables (LOGAREA, CPFOR2, THTDEN) Variable dépendante est le log 10 du nombre despèces damphibiens et reptiles Quelle est la probabilité de détecter un effet de CPFOR2 de grandeur égale à la grandeur de leffet estimée une fois que les effets de LOGAREA et THTDEN ont été contrôlés, pour =.05?

54 Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 54 Exemple: la richesse en espèces des herptiles du sud-est de lOntario La grandeur de leffet f 2 de CPFOR2 une fois les effets de LOGAREA et THTDEN contrôlés =.024 Source (CPFOR2) dl = 1 = 1 Le nombre de degrés de liberté de lerreur dl = 2 = 28 - 1 - 1 - 1 = 25


Télécharger ppt "Université dOttawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2014-06-05 09:08 1 Régression multiple Quand et pourquoi on."

Présentations similaires


Annonces Google