La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 1.

Présentations similaires


Présentation au sujet: "Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 1."— Transcription de la présentation:

1 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 1

2 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 2 Régression multiple Quand et pourquoi on les utilise Modèle général de la régression multiple Épreuves d’hypothèses Le problème de la multicollinéarité Marche à suivre Régression polynomiale

3 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 3 Modèles linéaires (GLM) *peuvent être discontinues ou traitées comme étant discontinues

4

5 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 5 Quand utiliser la régression multiple? Afin d’estimer la relation entre une variable dépendante (Y) et plusieurs variables indépendantes (X 1, X 2, …) ex: la relation entre la production primaire, la concentration de phosphore et l’abondance du zooplancton Log [P] Log Production Log [P] Log Production Log [Zoo]

6 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 6 Le modèle général: qui définit un plan à k- dimensions, ou  = ordonnée à l’origine,  j = coefficient de régression partiel de Y sur X j, X ij est la valeur de la ième observation de la variable dépendante X j, et  i est la valeur des résidus de la ième observation. Le modèle général de la régression multiple X2X2 X1X1 Y X2X2 X1X1 Y, X 1, X 2 ^  Y X, X 1 2.

7 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 7 Qu’est-ce que le coefficient de régression partiel?  j est le taux de variation de Y pour une variation de X j quand toutes les autres variables sont maintenues constantes; Ce n’est pas la pente de la régression de Y sur X j, regroupées pour toutes les autres variables! -4-2024 -8 -4 0 4 8 X1X1 Y X 2 = 3 X 2 = 1 X 2 = -1 X 2 = -3 Régression partielle Régression simple

8 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 8 L’effet de l’échelle Deux variables indépendantes sur différentes échelles ont une pente différente, même si la variation proportionnelle de Y est la même Alors, si on veut comparer l’effet relatif de chaque variable sur Y, on doit éliminer les effets de différentes échelles. Y  j = 2 4 2 0 1 2 XjXj Y  j =.02 4 2 0 100 200

9 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 9 Comme  j dépend de la taille de X j, pour déterminer l’effet relatif de chaque variable indépendante, on doit normaliser les coefficients de la régression: 1) en transformant toutes les variables et 2) en ajustant une régression sur les données transformées. Les coefficients normalisés  j * donnent une estimation de l’effet relatif de X j sur Y Le modèle de la régression multiple: version normalisée

10 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 10 Coefficients de régression: résumé Les coefficients de régression partielle: égaux à la pente de la régression de Y sur X j quand toutes les autres variables indépendantes sont maintenues constantes Les coefficients de régression normalisés: représentent le taux de changement Y ( en unités d’écart-type) par écart-type de X j lorsque toutes les autres variables sont maintenues constantes.

11 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 11 Hypothèses implicites Les résidus sont indépendants Les résidus sont homoscédastiques Linéarité des relations entre Y et tous les X Pas d’erreur de mesure sur les variables indépendantes Les résidus sont distribués normalement

12 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 12 Répartition de la somme des carrés totale en somme des carrés du modèle et des résidus: Épreuves d’hypothèses I: répartition de la somme des carrés totale X2X2 X1X1 Y SC Modèle SC Totale SC Résidus

13 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 13 Épreuves d’hypothèses I: répartition de la somme des carrés totale Alors, CM modèle = s 2 Y et Cm erreur = 0 si les valeurs observées = attendues pour tous les i calculer F = CM modèle /CM erreur et comparer à la distribution de F avec 1 et N-2 dl. H 0 : F = 1

14 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 14 Épreuves d’hypothèses II: signification des coefficients de régression partielle Tester chaque hypothèse à l’aide d’un test de t: Note: c’est un test bilatéral! YY X 1, X 2 fixes H 01 :   = 0, rejetée X 2 = 1 X 2 = 2 YY H 02 :  2 = 0, acceptée X 2, X 1 fixes X 1 = 2 X 1 = 3

15 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 15 Multicolinéarité Si les variables indépendantes sont corrélées, elles ne sont pas indépendantes. L’évaluation de la colinéarité se fait en regardant les matrices de covariance ou de corrélation X1X1 indépendantes X3X3 X2X2 colinéaires X2X2 Variance Covariance

16 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 16 Multicolinéarité: problèmes Si deux variables indépendantes X 1 et X 2 ne sont pas corrélées, la somme des carrés du modèle linéaire incluant les deux variables égale la somme des SC modèle de chacune pris séparément Toutefois, si elles sont corrélées, la somme des carrées sera plus petite Alors, si on a un modèle incluant X 1, de combien augmente la SS modèle quand X 2 est aussi inclus (ou vice versa)?

17 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 17 Multicolinéarité: conséquences Inflation de l’erreur type des coefficients de régression une grande sensibilité des coefficients estimés et des erreurs types à de petits changements dans les données cependant, les estimés des coefficients de régression partielle ne sont pas biaisés une ou plusieurs variables peuvent ne pas apparaître dans le modèle final de la régression parce qu’elle covarie avec une autre variable indépendante

18 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 18 Détection de la multicolinéarité R 2 élevé mais peu de variables significatives Fortes corrélations entre les X Fortes corrélations partielles entre les variables indépendantes (si l’une des variables indépendantes est une fonction linéaire de plusieurs autres) Valeurs propres, indice de condition, et facteur d’inflation de la variance.

19 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 19 Quantifier les effets de la multicolinéarité Vecteurs propres: une série de “lignes”  1,  2,…,  k dans un espace à k-dimensions. Ces vecteurs sont orthogonaux les uns par rapport aux autres Valeurs propres: la longueur  des vecteurs correspondants X2X2 X1X1 X2X2 X1X1 11 11 22 22 1 2

20 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 20 Quantifier les effets de la multicolinéarité Les valeurs propres: si toutes les valeurs propres sont environ égales, il y a peu de multicolinéarité Indice de condition: racine carrée( l / s ); si près de 1, il y a peu de multicolinéarité Facteur d’inflation de la variance: 1 - proportion de la variance des variables indépendantes expliquée par toutes les autres. Si près de 1, indique une faible colinéarité. X2X2 X1X1 X2X2 X1X1 Faible corrélation 1 = 2 Forte corrélation 1 >> 2

21 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 21 Solutions Récolter plus de données afin de réduire les corrélations Éliminer certaines variables indépendantes Régression sur les composantes principales ou “ridge regression”, qui mène à des estimés des coefficients biaisés mais avec des erreurs types plus petites

22 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 22 Régression multiple: principes de base Évaluer la signification d’une variable en ajustant deux modèles: un incluant le terme, et l’autre où il est enlevé. Tester pour les changements dans l’ajustement au modèle (  ) associés avec l’exclusion du terme en question Malheureusement,  peut dépendre de d’autres variables s’il y a multicolinéarité! Modèle A (X 1 inclus) Modèle B (X 2 exclus)  G ou F (ex:  R 2 ) Enlever X 1 (petit  ) Garder X 1 (grand  )

23 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 23 Ajustement de modèles de régression multiple But: trouver le “meilleur” modèle, avec les données disponiles Problème1: définition de “meilleur”? –R 2 le plus élevé? –La variance résiduelle la plus petite? –R 2 le plus élevé mais qui ne contient que des termes significatifs? –Qui maximise R 2 avec un minimum de variables indépendantes?

24 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 24 Sélection des variables indépendantes (suite) Problème 2: même avec une définition du meilleur modèle, quelle méthode doit-on utiliser pour le trouver? Possibilités: –calculer tous les modèles possibles (2 k -1) et choisir le meilleur –recourir à une procédure qui réduira le nombre de modèles à ajuster

25 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 25 Stratégie I: calculer tous les modèles possibles calculer tous les modèles possibles et choisir le meilleur désavantages: –coûte cher en temps –le problème de la définition du meilleur modèle reste entier avantages: –si on a une définition du meilleur modèle, on le trouvera! {X 1, X 2, X 3 } {X2}{X2} {X1}{X1} {X3}{X3} {X1, X2}{X1, X2} {X2, X3}{X2, X3} {X1, X3}{X1, X3} {X1, X2, X3}{X1, X2, X3}

26 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 26 Stratégie II: sélection progressive Commencer avec la variable dont le coefficient de corrélation partielle r est le plus élevé ajouter les autres une à une jusqu’à ce qu’il n’y ait plus de  j significativement différents de 0. problème: si X j est inclus, il restera dans le modèle même si sa contribution à SC modèle est minime. une fois les autres variables incluses. {X 1, X 2, X 3 } {X2}{X2} r 2 > r 1 > r 3 {X1, X2, X3}{X1, X2, X3} {X1, X2}{X1, X2} R   R 2  R   R 21  R 21   R 2  R 21   R 2  {X2}{X2} {X1, X2, X3}{X1, X2, X3} Modèle final R 123   R 21  {X 1, X 2 } R 123   R 21 

27 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 27 Sélection progressive: ordre d’entrée Commencer avec la variable dont le coefficient de corrélation partielle est le plus élevé ensuite, ajouter la variable qui provoque la plus grande augmentation du R 2 (test de F de la signification de l’augmentation). On doit aussi spécifier un F seuil pour l’entrée des variables dans le modèle {X 1, X 2, X 3, X 4 } {X2}{X2} r 2 > r 1 > r 3 > r 4 {X2, X1}{X2, X1} {X2, X4}{X2, X4} p[F(X 2, X 4 )] =.55 X 4 éliminé p d’entrée =.05 {X2, X3}{X2, X3}{X2, X1}{X2, X1} p[F(X 2 )] =.001 p[F(X 2, X 1 )] =.002 p[F(X 2, X 3 )] =.04... {X2, X3}{X2, X3}

28 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 28 Stratégie III: Élimination rétrograde Commencer avec toutes les variables retirer du modèle les variables qui ne réduise pas significativement R 2. Les variables sont retirées une à la fois en commençant avec celle dont le coefficient de régression partielle est le plus bas Toutefois, une fois qu’une variable est retirée du modèle, elle reste exclue, et ce même si elle explique une portion significative de la variabilité une fois que d’autres variables sont enlevées {X 1, X 2, X 3 } {X3}{X3} r 2 < r 1 < r 3 {X1, X3}{X1, X3} R   R 13  R 3   R 13  R 13   R 123  {X3}{X3} {X1, X2, X3}{X1, X2, X3} Modèle final R   R 123  R 13   R 123  R 3   R 13  {X1, X3}{X1, X3}

29 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 29 Élimination rétrograde: ordre d’entrée Commencer avec la variable dont le coefficient de corrélation partielle est le plus faible. Continuer avec la variable qui provoque la plus petite réduction du R 2 (test de F pour déterminer la signification de l’augmentation, F seuil) {X 1, X 2, X 3, X 4 } {X 2, X 1, X 3 } r 2 > r 1 > r 3 > r 4 {X2, X1}{X2, X1} p[F(X 2, X 1 )] =.25 p de sortie =.10 p[F(X 2, X 3 )] =.001... p[F(X 2, X 1, X 3 )] =.44 X 4 enlevé X 3 enlevéX 1, X 2 restent X 2, X 3, X 1 restent {X1, X3}{X1, X3}{X2, X3}{X2, X3} p[F(X 1, X 3 )] =.009

30 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 30 Stratégie IV: régression pas à pas Une fois qu’une variable est incluse (ou enlevée), on regarde dans les variables qui restent pour trouver d’autres variables qui devraient être enlevées (incluses). On regarde aussi les variables qui sont déjà dans le modèle afin d’éviter d’entrer dans une boucle, on doit spécifier les niveaux des p d’entrée > p de sortie {X 1, X 2, X 3, X 4 } {X2}{X2} r 2 > r 1 > r 4 > r 3 {X 1, X 2, X 3 } {X2, X4}{X2, X4} p[F(X 2, X 4 )] =.03 p d’entrée =.10 p de sortie =.05 {X2, X3}{X2, X3}{X2, X1}{X2, X1} p[F(X 2 )] =.001 p[F(X 2, X 1 )] =.002 p[F(X 2, X 3 )] =.09 {X 1, X 2, X 4 } p[F(X 1, X 2, X 4 )] =.02 p[F(X1, X 2, X 3 )] =.19 {X1, X4}{X1, X4}

31 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 31 Exemple Le log de la richesse en espèces des herptiles (logherp) est une fonction du log de l’aire du marais (logarea), du pourcentage de terre boisée dans un rayon de 1 km (cpfor2) et de la densité de routes pavées dans un rayon de 1 km (thtdens)

32

33 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 33 Exemple (toutes les variables) Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.2848 0.1914 1.4876 0.1499 LOGAREA 0.2285 0.0576 3.9636 0.0006 CPFOR2 0.0011 0.0014 0.7740 0.4465 THTDEN -0.0358 0.0157 -2.2761 0.0321 Residual standard error: 0.1619 on 24 degrees of freedom Multiple R-Squared: 0.5471 F-statistic: 9.662 on 3 and 24 degrees of freedom, the p-value is 0.0002291 2 observations deleted due to missing values

34 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 34 Exemple: Forward selection *** Stepwise Regression *** *** Stepwise Model Comparisons *** Start: AIC= 1.4925 LOGHERP ~ 1 Single term additions Model: LOGHERP ~ 1 scale: 0.051464 Df Sum of Sq RSS Cp 1.389528 1.492456 CPFOR2 1 0.1290718 1.260456 1.466312 THTDEN 1 0.3424104 1.047118 1.252974 LOGAREA 1 0.4935233 0.896005 1.101861 AIC: Akaike Information Criteria C p : dérivé de AIC Prop. à “Variance résiduelle en compensant pour dl modèle”)

35 Exemple: Forward selection Step: AIC= 1.1019 LOGHERP ~ LOGAREA Single term additions Model: LOGHERP ~ LOGAREA scale: 0.051464 Df Sum of Sq RSS Cp 0.8960048 1.101861 CPFOR2 1 0.1307822 0.7652226 1.074007 THTDEN 1 0.2509250 0.6450798 0.953864 Step: AIC= 0.9539 LOGHERP ~ LOGAREA + THTDEN Single term additions Model: LOGHERP ~ LOGAREA + THTDEN scale: 0.051464 Df Sum of Sq RSS Cp 0.6450798 0.953864 CPFOR2 1 0.01570813 0.6293717 1.041084

36 Start: AIC= 0.8392 LOGHERP ~ CPFOR2 + THTDEN + LOGAREA Single term deletions Model: LOGHERP ~ CPFOR2 + THTDEN + LOGAREA scale: 0.02622382 Df Sum of Sq RSS Cp 0.629372 0.839162 CPFOR2 1 0.0157081 0.645080 0.802423 THTDEN 1 0.1358509 0.765223 0.922566 LOGAREA 1 0.4119815 1.041353 1.198696 Step: AIC= 0.8024 LOGHERP ~ THTDEN + LOGAREA Single term deletions Model: LOGHERP ~ THTDEN + LOGAREA scale: 0.02622382 Df Sum of Sq RSS Cp 0.645080 0.802423 THTDEN 1 0.2509250 0.896005 1.000900 LOGAREA 1 0.4020378 1.047118 1.152013 Élimination rétrograde

37 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 37 Exemple: élimination rétrograde (modèle final) *** Linear Model *** Call: lm(formula = LOGHERP ~ LOGAREA + THTDEN, data = Mregdat, na.action = na.exclude) Residuals: Min 1Q Median 3Q Max -0.3158 -0.1233 0.02095 0.132 0.3167 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.3763 0.1493 2.5213 0.0184 LOGAREA 0.2250 0.0570 3.9473 0.0006 THTDEN -0.0420 0.0135 -3.1184 0.0045 Residual standard error: 0.1606 on 25 degrees of freedom Multiple R-Squared: 0.5358 F-statistic: 14.43 on 2 and 25 degrees of freedom, the p- value is 0.00006829

38 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 38 Exemple: Régression pas à pas *** Stepwise Regression *** *** Stepwise Model Comparisons *** Start: AIC= 0.8392 LOGHERP ~ LOGAREA + CPFOR2 + THTDEN Single term deletions Model:LOGHERP ~ LOGAREA + CPFOR2 + THTDEN scale: 0.02622382 Df Sum of Sq RSS Cp 0.629372 0.839162 LOGAREA 1 0.4119815 1.041353 1.198696 CPFOR2 1 0.0157081 0.645080 0.802423 THTDEN 1 0.1358509 0.765223 0.922566

39 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 39 Régression pas à pas(suite) Step: AIC= 0.8024 LOGHERP ~ LOGAREA + THTDEN Single term deletions Model: LOGHERP ~ LOGAREA + THTDEN scale: 0.02622382 Df Sum of Sq RSS Cp 0.645080 0.802423 LOGAREA 1 0.4020378 1.047118 1.152013 THTDEN 1 0.2509250 0.896005 1.000900 Single term additions Model: LOGHERP ~ LOGAREA + THTDEN scale: 0.02622382 Df Sum of Sq RSS Cp 0.6450798 0.8024227 CPFOR2 1 0.01570813 0.6293717 0.8391622

40 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 40 Régression pas à pas : modèle final *** Linear Model *** Call: lm(formula = LOGHERP ~ LOGAREA + THTDEN, data = Mregdat, na.action = na.exclude) Residuals: Min 1Q Median 3Q Max -0.3158 -0.1233 0.02095 0.132 0.3167 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.3763 0.1493 2.5213 0.0184 LOGAREA 0.2250 0.0570 3.9473 0.0006 THTDEN -0.0420 0.0135 -3.1184 0.0045 Residual standard error: 0.1606 on 25 degrees of freedom Multiple R-Squared: 0.5358 F-statistic: 14.43 on 2 and 25 degrees of freedom, the p-value is 0.00006829

41 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 41 Que faire si la relation entre Y et le ou les X(s) n’est pas linéaire? option 1: transformer les données option 2: utiliser une régression non-linéaire option 3: utiliser une régression polynomiale

42 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 42 Une régression polynomiale inclus des termes de degrés croissants de la variable indépendante Le modèle de la régression polynomiale 10 100 1000 1030507090110 Vitesse du courant (cm/s) Biomasse des mouches noires (mgDM/m²) Modèle linéaire Modèle polynomial de second ordre

43 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 43 Ajuster une régression linéaire simple Ajuster un modèle quadratique, vérifier s’il y a augmentation de la SS modèle continuer en ajoutant des termes de degrés supérieur (X 3, X 4, etc..) jusqu’à ce que SS modèle n’augmente plus de manière significative. Inclure les termes jusqu’à la puissance (nombre de points d’inflexion plus 1) Le modèle de la régression polynomiale: marche à suivre 10 100 1000 1030507090110 Vitesse du courant (cm/s) Biomasse des mouches noires (mgDM/m²) Modèle linéaire Modèle polynomial de second ordre

44 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 44 Régression polynomiale: mise en garde La signification biologique des termes élevés à une certaine puissance est généralement inconnue par définition, les termes polynomiaux sont fortement corrélés: les erreurs types sont grandes (la précision est faible) et augmentent avec l’ordre du terme Les extrapolations de modèles polynomiaux sont toujours un non sens X1X1 Y Y =   X 1 -   X 1 2

45 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 45 Conseils Testez pour les intéractions... si vous le pouvez Bonferroni et la pêche....

46 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 46 Puissance: ANOVA, GLM, Régression Other F-tests, F-tests (multiple regression)

47 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 47 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.2848 0.1914 1.4876 0.1499 LOGAREA 0.2285 0.0576 3.9636 0.0006 CPFOR2 0.0011 0.0014 0.7740 0.4465 THTDEN -0.0358 0.0157 -2.2761 0.0321 Residual standard error: 0.1619 on 24 degrees of freedom Multiple R-Squared: 0.5471 F-statistic: 9.662 on 3 and 24 degrees of freedom, the p-value is 0.0002291 2 observations deleted due to missing values

48 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 48 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.2848 0.1914 1.4876 0.1499 LOGAREA 0.2285 0.0576 3.9636 0.0006 CPFOR2 0.0011 0.0014 0.7740 0.4465 THTDEN -0.0358 0.0157 -2.2761 0.0321 Residual standard error: 0.1619 on 24 degrees of freedom Multiple R-Squared: 0.5471 F-statistic: 9.662 on 3 and 24 degrees of freedom, the p-value is 0.0002291 Coefficients: Value Std. Error t value Pr(>|t|) (Intercept) 0.0271 0.1667 0.1623 0.8724 LOGAREA 0.2478 0.0616 4.0224 0.0005 CPFOR2 0.0027 0.0013 2.0670 0.0492 Residual standard error: 0.175 on 25 degrees of freedom Multiple R-Squared: 0.4493 F-statistic: 10.2 on 2 and 25 degrees of freedom, the p-value is 0.0005774

49 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 49 Définition de la grandeur de l’effet: cas 2 R 2 partiel de THTDEN=.098 Donc, la taille de l’effet pour la variable THTDEN est 0.216.

50 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 50 Exemple: la richesse en espèces des amphibiens du sud-est de l’Ontario Échantillon de 28 terres humides 3 variables (LOGAREA, CPFOR2, THTDEN) Variable dépendante est le log 10 du nombre d’espèces d’amphibiens et reptiles Quelle est la probabilité de détecter un effet de CPFOR2 de grandeur égale à la grandeur de l’effet estimée une fois que les effets de LOGAREA et THTDEN ont été contrôlés, pour  =.05?

51 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 51 Exemple: la richesse en espèces des herptiles du sud-est de l’Ontario La grandeur de l’effet f 2 de CPFOR2 une fois les effets de LOGAREA et THTDEN contrôlés =.024 Source (CPFOR2) dl = 1 = 1 Le nombre de degrés de liberté de l’erreur dl = 2 = 28 - 1 - 1 - 1 = 25

52 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 52 Puissance: pentes (GLM, régressions) Other t-tests

53 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 53 Exemple: test que pente de CPFOR2=0

54 Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 54 Exemple: test que pente de CPFOR2=1.5


Télécharger ppt "Université d’Ottawa - Bio 4518 - Biostatistiques appliquées © Antoine Morin et Scott Findlay 2015-07-16 22:57 1."

Présentations similaires


Annonces Google