Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
Publié parYves Gamache Modifié depuis plus de 9 années
1
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 1 Régression multiple Quand et pourquoi on les utilise Modèle général de la régression multiple Épreuves d’hypothèses Le problème de la multicollinéarité Marche à suivre Régression polynomiale
2
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 2 Modèles linéaires (GLM) *peuvent être discontinues ou traitées comme étant discontinues
3
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 3 Quand utiliser la régression multiple? Afin d ’estimer la relation entre une variable dépendante (Y) et plusieurs variables indépendantes (X 1, X 2, …) ex: la relation entre la production primaire, la concentration de phosphore et l’abondance du zooplancton Log [P] Log Production Log [P] Log Production Log [Zoo]
4
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 4 Le modèle général: qui définit un plan à k- dimensions, ou = ordonnée à l’origine, j = coefficient de régression partiel de Y sur X j, X ij est la valeur de la ième observation de la variable dépendante X j, et i est la valeur des résidus de la ième observation. Le modèle général de la régression multiple X2X2 X1X1 Y X2X2 X1X1 Y, X 1, X 2 ^ Y X, X 1 2.
5
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 5 Qu’est-ce que le coefficient de régression partiel? j est le taux de variation de Y pour une variation de X j quand toutes les autres variables sont maintenues constantes; Ce n’est pas la pente de la régression de Y sur X j, regroupées pour toutes les autres variables! -4-2024 -8 -4 0 4 8 X1X1 Y X 2 = 3 X 2 = 1 X 2 = -1 X 2 = -3 Régression partielle Régression simple
6
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 6 L’effet de l’échelle Deux variables indépendantes sur différentes échelles ont une pente différente, même si la variation proportionnelle de Y est la même Alors, si on veut comparer l’effet relatif de chaque variable sur Y, on doit éliminer les effets de différentes échelles. Y j = 2 4 2 0 1 2 XjXj Y j =.02 4 2 0 100 200
7
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 7 Comme j dépend de la taille de X j, pour déterminer l’effet relatif de chaque variable indépendante, on doit normaliser les coefficients de la régression: 1) en transformant toutes les variables et 2) en ajustant une régression sur les données transformées. Les coefficients normalisés j * donnent une estimation de l’effet relatif de X j sur Y Le modèle de la régression multiple: version normalisée
8
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 8 Coefficients de régression: résumé Les coefficients de régression partielle: égaux à la pente de la régression de Y sur X j quand toutes les autres variables indépendantes sont maintenues constantes Les coefficients de régression normalisés: représentent le taux de changement Y ( en unités d’écart-type) par écart-type de X j lorsque toutes les autres variables sont maintenues constantes.
9
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 9 Hypothèses implicites Les résidus sont indépendants Les résidus sont homoscédastiques Linéarité des relations entre Y et tous les X Pas d’erreur de mesure sur les variables indépendantes Les résidus sont distribués normalement
10
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 10 Hypothesis testing in simple linear regression: partitioning the total sums of squares Total SS Model (Explained) SS Unexplained (Error) SS Y = +
11
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 11 Répartition de la somme des carrés totale en somme des carrés du modèle et des résidus: Épreuves d’hypothèses I: répartition de la somme des carrés totale X2X2 X1X1 Y SC Modèle SC Totale SC Résidus
12
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 12 Épreuves d’hypothèses I: répartition de la somme des carrés totale Alors, CM modèle = s 2 Y et Cm erreur = 0 si les valeurs observées = attendues pour tous les i calculer F = CM modèle /CM erreur et comparer à la distribution de F avec 1 et N-2 dl. H 0 : F = 1
13
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 13 Épreuves d’hypothèses II: signification des coefficients de régression partielle Tester chaque hypothèse à l’aide d’un test de t: Note: c’est un test bilatéral! YY X 1, X 2 fixes H 01 : = 0, rejetée X 2 = 1 X 2 = 2 YY H 02 : 2 = 0, acceptée X 2, X 1 fixes X 1 = 2 X 1 = 3
14
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 14 Multicolinéarité Si les variables indépendantes sont corrélées, elles ne sont pas indépendantes. L’évaluation de la colinéarité se fait en regardant les matrices de covariance ou de corrélation X1X1 indépendantes X3X3 X2X2 colinéaires X2X2 Variance Covariance
15
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 15 Multicolinéarité: problèmes Si deux variables indépendantes X 1 et X 2 ne sont pas corrélées, la somme des carrés du modèle linéaire incluant les deux variables égale la somme des SC modèle de chacune pris séparément Toutefois, si elles sont corrélées, la somme des carrées sera plus petite Alors, si on a un modèle incluant X 1, de combien augmente la SS modèle quand X 2 est aussi inclus (ou vice versa)?
16
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 16 Multicolinéarité: conséquences Inflation de l’erreur type des coefficients de régression une grande sensibilité des coefficients estimés et des erreurs types à de petits changements dans les données cependant, les estimés des coefficients de régression partielle ne sont pas biaisés une ou plusieurs variables peuvent ne pas apparaître dans le modèle final de la régression parce qu’elle covarie avec une autre variable indépendante
17
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 17 Détection de la multicolinéarité R 2 élevé mais peu de variables significatives Fortes corrélations entre les X Fortes corrélations partielles entre les variables indépendantes (si l’une des variables indépendantes est une fonction linéaire de plusieurs autres) Valeurs propres, indice de condition, et facteur d’inflation de la variance.
18
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 18 Quantifier les effets de la multicolinéarité Vecteurs propres: une série de “lignes” 1, 2,…, k dans un espace à k-dimensions. Ces vecteurs sont orthogonaux les uns par rapport aux autres Valeurs propres: la longueur des vecteurs correspondants X2X2 X1X1 X2X2 X1X1 11 11 22 22 1 2
19
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 19 Quantifier les effets de la multicolinéarité Les valeurs propres: si toutes les valeurs propres sont environ égales, il y a peu de multicolinéarité Indice de condition: racine carrée( l / s ); si près de 1, il y a peu de multicolinéarité Facteur d’inflation de la variance: 1 - proportion de la variance des variables indépendantes expliquée par toutes les autres. Si près de 1, indique une faible colinéarité. X2X2 X1X1 X2X2 X1X1 Faible corrélation 1 = 2 Forte corrélation 1 >> 2
20
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 20 Solutions Récolter plus de données afin de réduire les corrélations Éliminer certaines variables indépendantes Régression sur les composantes principales ou “ridge regression”, qui mène à des estimés des coefficients biaisés mais avec des erreurs types plus petites
21
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 21 Régression multiple: principes de base Évaluer la signification d’une variable en ajustant deux modèles: un incluant le terme, et l’autre où il est enlevé. Tester pour les changements dans l’ajustement au modèle ( ) associés avec l’exclusion du terme en question Malheureusement, peut dépendre de d’autres variables s’il y a multicolinéarité! Modèle A (X 1 inclus) Modèle B (X 2 exclus) G ou F (ex: R 2 ) Enlever X 1 (petit ) Garder X 1 (grand )
22
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 22 Ajustement de modèles de régression multiple But: trouver le “meilleur” modèle, avec les données disponiles Problème1: définition de “meilleur”? –R 2 le plus élevé? –La variance résiduelle la plus petite? –R 2 le plus élevé mais qui ne contient que des termes significatifs? –Qui maximise R 2 avec un minimum de variables indépendantes?
23
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 23 Sélection des variables indépendantes (suite) Problème 2: même avec une définition du meilleur modèle, quelle méthode doit-on utiliser pour le trouver? Possibilités: –calculer tous les modèles possibles (2 k -1) et choisir le meilleur –recourir à une procédure qui réduira le nombre de modèles à ajuster
24
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 24 Stratégie I: calculer tous les modèles possibles calculer tous les modèles possibles et choisir le meilleur désavantages: –coûte cher en temps –le problème de la définition du meilleur modèle reste entier avantages: –si on a une définition du meilleur modèle, on le trouvera! {X 1, X 2, X 3 } {X2}{X2} {X1}{X1} {X3}{X3} {X1, X2}{X1, X2} {X2, X3}{X2, X3} {X1, X3}{X1, X3} {X1, X2, X3}{X1, X2, X3}
25
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 25 Stratégie II: sélection progressive Commencer avec la variable dont le coefficient de corrélation partielle r est le plus élevé ajouter les autres une à une jusqu’à ce qu’il n’y ait plus de j significativement différents de 0. problème: si X j est inclus, il restera dans le modèle même si sa contribution à SC modèle est minime. une fois les autres variables incluses. {X 1, X 2, X 3 } {X2}{X2} r 2 > r 1 > r 3 {X1, X2, X3}{X1, X2, X3} {X1, X2}{X1, X2} R R 2 R R 21 R 21 R 2 R 21 R 2 {X2}{X2} {X1, X2, X3}{X1, X2, X3} Modèle final R 123 R 21 {X 1, X 2 } R 123 R 21
26
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 26 Sélection progressive: ordre d’entrée Commencer avec la variable dont le coefficient de corrélation partielle est le plus élevé ensuite, ajouter la variable qui provoque la plus grande augmentation du R 2 (test de F de la signification de l’augmentation). On doit aussi spécifier un F seuil pour l’entrée des variables dans le modèle {X 1, X 2, X 3, X 4 } {X2}{X2} r 2 > r 1 > r 3 > r 4 {X2, X1}{X2, X1} {X2, X4}{X2, X4} p[F(X 2, X 4 )] =.55 X 4 éliminé p d’entrée =.05 {X2, X3}{X2, X3}{X2, X1}{X2, X1} p[F(X 2 )] =.001 p[F(X 2, X 1 )] =.002 p[F(X 2, X 3 )] =.04... {X2, X3}{X2, X3}
27
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 27 Stratégie III: Élimination rétrograde Commencer avec toutes les variables retirer du modèle les variables qui ne réduise pas significativement R 2. Les variables sont retirées une à la fois en commençant avec celle dont le coefficient de régression partielle est le plus bas Toutefois, une fois qu’une variable est retirée du modèle, elle reste exclue, et ce même si elle explique une portion significative de la variabilité une fois que d’autres variables sont enlevées {X 1, X 2, X 3 } {X3}{X3} r 2 < r 1 < r 3 {X1, X3}{X1, X3} R R 13 R 3 R 13 R 13 R 123 {X3}{X3} {X1, X2, X3}{X1, X2, X3} Modèle final R R 123 R 13 R 123 R 3 R 13 {X1, X3}{X1, X3}
28
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 28 Élimination rétrograde: ordre d’entrée Commencer avec la variable dont le coefficient de corrélation partielle est le plus faible. Continuer avec la variable qui provoque la plus petite réduction du R 2 (test de F pour déterminer la signification de l’augmentation, F seuil) {X 1, X 2, X 3, X 4 } {X 2, X 1, X 3 } r 2 > r 1 > r 3 > r 4 {X2, X1}{X2, X1} p[F(X 2, X 1 )] =.25 p de sortie =.10 p[F(X 2, X 3 )] =.001... p[F(X 2, X 1, X 3 )] =.44 X 4 enlevé X 3 enlevéX 1, X 2 restent X 2, X 3, X 1 restent {X1, X3}{X1, X3}{X2, X3}{X2, X3} p[F(X 1, X 3 )] =.009
29
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 29 Stratégie IV: régression pas à pas Une fois qu’une variable est incluse (ou enlevée), on regarde dans les variables qui restent pour trouver d’autres variables qui devraient être enlevées (incluses). On regarde aussi les variables qui sont déjà dans le modèle afin d’éviter d’entrer dans une boucle, on doit spécifier les niveaux des p d’entrée > p de sortie {X 1, X 2, X 3, X 4 } {X2}{X2} r 2 > r 1 > r 4 > r 3 {X 1, X 2, X 3 } {X2, X4}{X2, X4} p[F(X 2, X 4 )] =.03 p d’entrée =.10 p de sortie =.05 {X2, X3}{X2, X3}{X2, X1}{X2, X1} p[F(X 2 )] =.001 p[F(X 2, X 1 )] =.002 p[F(X 2, X 3 )] =.09 {X 1, X 2, X 4 } p[F(X 1, X 2, X 4 )] =.02 p[F(X1, X 2, X 3 )] =.19 {X1, X4}{X1, X4}
30
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 30 Exemple Le log de la richesse en espèces des herptiles (logherp) est une fonction du log de l’aire du marais (logarea), du pourcentage de terre boisée dans un rayon de 1 km (cpfor2) et de la densité de routes pavées dans un rayon de 1 km (thtdens)
32
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 32 Exemple (toutes les variables) Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.2848 0.1914 1.4876 0.1499 LOGAREA 0.2285 0.0576 3.9636 0.0006 CPFOR2 0.0011 0.0014 0.7740 0.4465 THTDEN -0.0358 0.0157 -2.2761 0.0321 Residual standard error: 0.1619 on 24 degrees of freedom Multiple R-Squared: 0.5471 F-statistic: 9.662 on 3 and 24 degrees of freedom, the p-value is 0.0002291 2 observations deleted due to missing values
33
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 33 Exemple: Forward selection *** Stepwise Regression *** *** Stepwise Model Comparisons *** Start: AIC= 1.4925 LOGHERP ~ 1 Single term additions Model: LOGHERP ~ 1 scale: 0.051464 Df Sum of Sq RSS Cp 1.389528 1.492456 CPFOR2 1 0.1290718 1.260456 1.466312 THTDEN 1 0.3424104 1.047118 1.252974 LOGAREA 1 0.4935233 0.896005 1.101861 AIC: Akaike Information Criteria C p : dérivé de AIC Prop. à “Variance résiduelle en compensant pour dl modèle”)
34
Exemple: Forward selection Step: AIC= 1.1019 LOGHERP ~ LOGAREA Single term additions Model: LOGHERP ~ LOGAREA scale: 0.051464 Df Sum of Sq RSS Cp 0.8960048 1.101861 CPFOR2 1 0.1307822 0.7652226 1.074007 THTDEN 1 0.2509250 0.6450798 0.953864 Step: AIC= 0.9539 LOGHERP ~ LOGAREA + THTDEN Single term additions Model: LOGHERP ~ LOGAREA + THTDEN scale: 0.051464 Df Sum of Sq RSS Cp 0.6450798 0.953864 CPFOR2 1 0.01570813 0.6293717 1.041084
35
Start: AIC= 0.8392 LOGHERP ~ CPFOR2 + THTDEN + LOGAREA Single term deletions Model: LOGHERP ~ CPFOR2 + THTDEN + LOGAREA scale: 0.02622382 Df Sum of Sq RSS Cp 0.629372 0.839162 CPFOR2 1 0.0157081 0.645080 0.802423 THTDEN 1 0.1358509 0.765223 0.922566 LOGAREA 1 0.4119815 1.041353 1.198696 Step: AIC= 0.8024 LOGHERP ~ THTDEN + LOGAREA Single term deletions Model: LOGHERP ~ THTDEN + LOGAREA scale: 0.02622382 Df Sum of Sq RSS Cp 0.645080 0.802423 THTDEN 1 0.2509250 0.896005 1.000900 LOGAREA 1 0.4020378 1.047118 1.152013 Élimination rétrograde
36
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 36 Exemple: élimination rétrograde (modèle final) *** Linear Model *** Call: lm(formula = LOGHERP ~ LOGAREA + THTDEN, data = Mregdat, na.action = na.exclude) Residuals: Min 1Q Median 3Q Max -0.3158 -0.1233 0.02095 0.132 0.3167 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.3763 0.1493 2.5213 0.0184 LOGAREA 0.2250 0.0570 3.9473 0.0006 THTDEN -0.0420 0.0135 -3.1184 0.0045 Residual standard error: 0.1606 on 25 degrees of freedom Multiple R-Squared: 0.5358 F-statistic: 14.43 on 2 and 25 degrees of freedom, the p- value is 0.00006829
37
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 37 Exemple: Régression pas à pas *** Stepwise Regression *** *** Stepwise Model Comparisons *** Start: AIC= 0.8392 LOGHERP ~ LOGAREA + CPFOR2 + THTDEN Single term deletions Model:LOGHERP ~ LOGAREA + CPFOR2 + THTDEN scale: 0.02622382 Df Sum of Sq RSS Cp 0.629372 0.839162 LOGAREA 1 0.4119815 1.041353 1.198696 CPFOR2 1 0.0157081 0.645080 0.802423 THTDEN 1 0.1358509 0.765223 0.922566
38
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 38 Régression pas à pas(suite) Step: AIC= 0.8024 LOGHERP ~ LOGAREA + THTDEN Single term deletions Model: LOGHERP ~ LOGAREA + THTDEN scale: 0.02622382 Df Sum of Sq RSS Cp 0.645080 0.802423 LOGAREA 1 0.4020378 1.047118 1.152013 THTDEN 1 0.2509250 0.896005 1.000900 Single term additions Model: LOGHERP ~ LOGAREA + THTDEN scale: 0.02622382 Df Sum of Sq RSS Cp 0.6450798 0.8024227 CPFOR2 1 0.01570813 0.6293717 0.8391622
39
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 39 Régression pas à pas : modèle final *** Linear Model *** Call: lm(formula = LOGHERP ~ LOGAREA + THTDEN, data = Mregdat, na.action = na.exclude) Residuals: Min 1Q Median 3Q Max -0.3158 -0.1233 0.02095 0.132 0.3167 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.3763 0.1493 2.5213 0.0184 LOGAREA 0.2250 0.0570 3.9473 0.0006 THTDEN -0.0420 0.0135 -3.1184 0.0045 Residual standard error: 0.1606 on 25 degrees of freedom Multiple R-Squared: 0.5358 F-statistic: 14.43 on 2 and 25 degrees of freedom, the p-value is 0.00006829
40
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 40 Que faire si la relation entre Y et le ou les X(s) n’est pas linéaire? option 1: transformer les données option 2: utiliser une régression non-linéaire option 3: utiliser une régression polynomiale
41
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 41 Une régression polynomiale inclus des termes de degrés croissants de la variable indépendante Le modèle de la régression polynomiale 10 100 1000 1030507090110 Vitesse du courant (cm/s) Biomasse des mouches noires (mgDM/m²) Modèle linéaire Modèle polynomial de second ordre
42
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 42 Ajuster une régression linéaire simple Ajuster un modèle quadratique, vérifier s’il y a augmentation de la SS modèle continuer en ajoutant des termes de degrés supérieur (X 3, X 4, etc..) jusqu’à ce que SS modèle n’augmente plus de manière significative. Inclure les termes jusqu’à la puissance (nombre de points d’inflexion plus 1) Le modèle de la régression polynomiale: marche à suivre 10 100 1000 1030507090110 Vitesse du courant (cm/s) Biomasse des mouches noires (mgDM/m²) Modèle linéaire Modèle polynomial de second ordre
43
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 43 Régression polynomiale: mise en garde La signification biologique des termes élevés à une certaine puissance est généralement inconnue par définition, les termes polynomiaux sont fortement corrélés: les erreurs types sont grandes (la précision est faible) et augmentent avec l’ordre du terme Les extrapolations de modèles polynomiaux sont toujours un non sens X1X1 Y Y = X 1 - X 1 2
44
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 44 Analyse de puissance pour GLM Dans tous les GLM, les hypothèses sont éprouvées au moyen d’un test de F. Ne pas oublier: les SC erreur et dl erreur appropriés dépendent du type d’analyse et des hypothèses que l’on veut tester En connaissant F, on peut calculer R 2, la proportion de la variance totale de Y expliquée par le facteur (source) considéré
45
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 45 R 2 partiel et total R 2 total (R 2 YB ) est la proportion de la variance de Y expliquée par le groupe de variables indépendantes B. Le R 2 partiel (R 2 YA,B - R 2 YA ) est la proportion de la variance de Y expliquée par B quand la proportion de la variance expliquée par un autre groupe A est enlevée. Proportion de la variance expliquée par A et B (R 2 YA,B ) Proportion de la variance expliquée par A (R 2 YA )(R 2 total) Proportion de la variance expliquée par B indépendamment de A (R 2 YA,B - R 2 YA ) (R 2 partiel)
46
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 46 R 2 partiel et total R 2 total (R 2 YB ) pour un groupe B est égal au R 2 partiel (R 2 YA,B - R 2 YA ) si (1) R 2 total pour A (R 2 YA )=0; ou (2) si A et B sont indépendants (dans ce cas, R 2 YA,B = R 2 YA + R 2 YB ) Proportion de la variance expliquée par B (R 2 YB )(R 2 total) Proportion de la variance indépendante de A (R 2 YA,B - R 2 YA ) (R 2 partiel) A Y B A Égal si
47
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 47 R 2 partiel et total dans une régression multiple Si nous avons trois variables indépendantes X 1,X 2 and X 3 Log [P] Log Production Log [Zoo]
48
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 48 Définition de la grandeur de l’effet pour une régression multiple La grandeur de l’effet f 2 est égal au rapport entre R 2 facteur du facteur (source) et 1- R 2 erreur. À noter: les deux R 2 facteur et R 2 erreur dépendent de l’hypothèse nulle que l’on veut tester.
49
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 49 Cas 1: un groupe de variables B {X 1, X 2, …} est relié à Y, le R 2 total (R 2 YB ) est connu La proportion de la variance associée à l’erreur est 1- R 2 YB H 0 : R 2 YB = 0 Exemple: l’effet de l’aire des terres humides, du couvert forestier, de la densité des routes sur la richesse spécifique des reptiles et amphibiens du sud-est de l’Ontario. B ={LOGAREA, CPFOR2,THTDEN } Définition de la grandeur de l’effet: cas 1
50
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 50 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.2848 0.1914 1.4876 0.1499 LOGAREA 0.2285 0.0576 3.9636 0.0006 CPFOR2 0.0011 0.0014 0.7740 0.4465 THTDEN -0.0358 0.0157 -2.2761 0.0321 Residual standard error: 0.1619 on 24 degrees of freedom Multiple R-Squared: 0.5471 F-statistic: 9.662 on 3 and 24 degrees of freedom, the p-value is 0.0002291 2 observations deleted due to missing values
51
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 51 Définition de la grandeur de l’effet: cas 2 Cas 2: la proportion de la variance de Y expliquée par B qui est plus grande que celle expliquée par A est donnée par (R 2 YA,B - R 2 YA ) La proportion de la variance associée à l’erreur est de 1- R 2 YA,B H 0 : R 2 YA,B - R 2 YA = 0 Exemple: la richesse en espèces des herptile du sud-est de l’Ontario. B ={THTDEN}, A = {LOGAREA, CPFOR2},AB = {LOGAREA, CPFOR2, THTDEN}
52
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 52 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.2848 0.1914 1.4876 0.1499 LOGAREA 0.2285 0.0576 3.9636 0.0006 CPFOR2 0.0011 0.0014 0.7740 0.4465 THTDEN -0.0358 0.0157 -2.2761 0.0321 Residual standard error: 0.1619 on 24 degrees of freedom Multiple R-Squared: 0.5471 F-statistic: 9.662 on 3 and 24 degrees of freedom, the p-value is 0.0002291 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.0271 0.1667 0.1623 0.8724 LOGAREA 0.2478 0.0616 4.0224 0.0005 CPFOR2 0.0027 0.0013 2.0670 0.0492 Residual standard error: 0.175 on 25 degrees of freedom Multiple R-Squared: 0.4493 F-statistic: 10.2 on 2 and 25 degrees of freedom, the p-value is 0.0005774
53
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 53 Définition de la grandeur de l’effet: cas 2 La proportion de la variance de LOGHERP expliquée par THTDEN (B) plus grande que la proportion expliquée par LOGAREA and CPFOR2 (A) est R 2 YA,B - R 2 YA =.098 la proportion de la variance expliquée par l’erreur est égale à 1- R 2 YA,B = 1 -.547 Donc, la taille de l’effet pour la variable THTDEN est 0.216.
54
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 54 Determination de la puissance Une fois que f 2 est déterminé, (a priori comme une hypothèse alternative ou a posteriori qui est la taille de l’effet observée), on peut calculer le paramètre F non- central Si on connaît et les degrés de liberté associés au facteur (source) ( 1 ) et à l’erreur ( 2 ), on peut déterminer la puissance à partir de tables pour un donné. =.05) =.01) 2 décroissant 1- 1 = 2 =.05 2345 =.01 11.52 2.5
55
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 55 Exemple: la richesse en espèces des amphibiens du sud-est de l’Ontario Échantillon de 28 terres humides 3 variables (LOGAREA, CPFOR2, THTDEN) Variable dépendante est le log 10 du nombre d’espèces d’amphibiens et reptiles Quelle est la probabilité de détecter un effet de CPFOR2 de grandeur égale à la grandeur de l’effet estimée une fois que les effets de LOGAREA et THTDEN ont été contrôlés, pour =.05?
56
Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-22 10:26 56 Exemple: la richesse en espèces des herptiles du sud-est de l’Ontario La grandeur de l’effet f 2 de CPFOR2 une fois les effets de LOGAREA et THTDEN contrôlés =.024 Source (CPFOR2) dl = 1 = 1 Le nombre de degrés de liberté de l’erreur dl = 2 = 28 - 1 - 1 - 1 = 25
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.