Analyse de la covariance

Slides:



Advertisements
Présentations similaires
Corrélation Position du problème Définition covariance (X,Y) r =
Advertisements

ANOVA à un facteur (Rehailia)
La régression logistique: fondements et conditions d’application
C1 Bio-statistiques F. KOHLER
Régression ou corrélation
1. Les caractéristiques de dispersion. 11. Utilité.
Les Tests dhypothèses. 1)Définition Un test cest une méthode qui permet de prendre une décision à partir des résultats dun échantillon.
Identités remarquables : introduction Les 3 identités remarquables
Régression -corrélation
Laboratoire Inter-universitaire de Psychologie Cours 6
Laboratoire Inter-universitaire de Psychologie
Analyse de la variance à un facteur
Analyse de la variance à deux facteurs (données déséquilibrées) Michel Tenenhaus.
1 Analyse de la variance multivariée Michel Tenenhaus.
Vérification des données
Plans à groupes indépendants: organisation
La Régression Multiple
Analyse de la variance : ANOVA à un facteur
Régression linéaire simple
L’Analyse de Covariance
Corrélation et régression linéaire simple
L’Analyse de Variance 1 Généralités Le modèle Calculs pratiques
Une observation par cellule facteurs fixes versus facteurs aléatoires.
Analyse de la variance multivariée
Toutes les variables étaient mesurées au niveau intervalle et sans erreur Toutes les variables étaient mesurées au niveau intervalle et sans erreur ->
L’analyse de variance factorielle
La corrélation et la régression multiple
La corrélation et la régression
Le test t.
L’analyse de variance.
La régression logistique
Lanalyse de la covariance. X y ANOVA Lanalyse de la covariance y X ANOVA.
L’analyse de variance à mesures répétées
La corrélation et la régression
Les modèles linéaires (Generalized Linear Models, GLM)
Corrélation Principe fondamental d’une analyse de corrélation
ANOVA à critères multiples
Le comportement des coûts Chapitre 3
Lectures Volume du cours: Sections 12.1 à 12.6 inclusivement
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Introduction –Analyse de la corrélation –Régression et méthode des.
Analyse factorielle de variance: Principes d’expérimentation
La régression multiple
Lectures Volume du cours: Sections 12.1 à 12.6 inclusivement
Méthodes de Biostatistique
Méthodes de Biostatistique
Probabilités et Statistiques
Méthodologie expérimentale : l’analyse des données
2. Modèles linéaires.
Howell Chap. 11: ANOVA. Du monde connu au monde inconnu Du test t à l’analyse de varianceDu test t à l’analyse de variance Trouvez des nouveaux noms pour.
La régression simple Michel Tenenhaus
LA REGRESSION LINEAIRE
M2 Sciences des Procédés - Sciences des Aliments
Séance 8 30 novembre 2005 N. Yamaguchi
ANOVA à 1 facteur en groupes de mesure indépendants
Régression linéaire simple
Gestion budgétaire des ventes
1 BIO 4518: Biostatistiques appliquées Le 1er novembre 2005 Laboratoire 7 ANCOVAs (Analyse de covariance)
BIO 4518: Biostatistiques appliquées Le 25 octobre 2005 Laboratoire 6 Corrélation linéaire et régression linéaire simple.
Méthodes de Biostatistique Chapitre 9 Tests Nonparamétriques.
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :57 1.
ETUDE DE 2 VARIABLES QUANTITATIVES
Modèle linéaire Relation entre une variable expliquée Y (par exemple le salaire), et p variables explicatives X j, j = 1, …, p (par exemple, p = 5, X 1.
PROGRAMMATION SCIENTIFIQUE EN C PRO Approximation de fonctions et régression u Introduction –Analyse de la corrélation –Régression et méthode des.
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :34 1 Les modèles linéaires (Generalized Linear.
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :26 1 Régression multiple Quand et pourquoi on.
STATISTIQUES.
Statistiques à 2 variables
Comparaison de plusieurs moyennes observées
Corrélation et régression linéaire Mars Modèles de régression  Réponses aux questions du type: ‘Quelle est la nature de la relation entre les variables?’
Transcription de la présentation:

Analyse de la covariance ANCOVA ANCOVA as statistical control Ancova is a way to adjust the experimental groups after the fact, so that the results can be interpreted as though a nuisance variable X had been held constant across groups. The main purpose af the analysis of covariance is statistical control of variability when experimental control can not be used. It is a statistical method for reducing experimental error or for removing the effect of an extraneous variable. Statistical control is obtained by using a concomitant variable (called the covariate) along with the dependent variable. The analysis of covariance makes use of linear prediction or regression as described in chapter one under "Linear Prediction." The underlying rational for the analysis of covariance is the idea of using prediction equations to predict the values (scores and means) of the dependent variable on the basis of the values of the covariate variable, and then subtracting these predicted scores and means from the corresponding values of the dependent variable. Oversimplifying a bit, the analysis of covariance is like an analysis of variance on the residuals of the values of the dependent variable, after removing the influence of the covariate, rather than on the original values themselves. In so far as the measures of the covariate are taken in advance of the experiment and they correlate with the measures of the dependent variable they can be used to reduce experimental error (the size of the error term) or control for an extraneous variable by removing the effects of the covariate from the dependent variable. Winer gives the following examples: The variate in this experiment may be a measure of extinction: the covariate may be a measure associated with the degree of learning at the start of the extinctin trials. As another example, suppose that the purpose of an experiment is to measure the effect of various stress situations upon blood pressure. In this case a measure of blood pressure under a condition of no stress may be the covariate. As still another example, suppose that the purpose of an experiment is to evaluate the effect of electrical stimulation on the weight of denervated muscle. The weight of the corresponding normal muscle may serve as a covariate in this type of experiment. (Winer, p. 578)

Exemple

Modèle général linéaire de l’ANCOVA [valeur observée] = grande moyenne + [effet du traitement] + [effet de la variable covariée] + [erreur] ou: Xij = µ + i + ß(Yij-Y.) + eij Hypothèse nulle µ*1 = µ*2 = µ*3 = µ* à la place de µ1 = µ2 = µ3 = µ More than one covariate One can use more than one covariate. However, one needs to take into account that the assumption of homogenity of regression becomes the assumption of equivalence of the variance-covariance matrices. (This can be tested using the BOX M test, however this test is sensitive to violations of normality) Also we need to assume multivariate normality :-) Further, the problem of multicolinarity arises -> see MR

La répartition des variances Pour X: Pour Y: Pour la régression de X et Y

Les variances ajustées

Exemple de calcul Sommes des carrées X (pretest) SCTotale=(5 - 7.333)2 + (4 - 7.333)2 +. . .+ 13 - 7.333)2 = 240 SCInter= (9)[(7 - 7.333)2 + (5 - 7.333)2 + (10 - 7.333)2] = 114 SCIntra=(5 - 7)2 + (4 - 7)2 +. . .+ (13 - 10)2 = 126 Sommes des carrées Y (posttest) SCTotale =(12 - 14.667)2 + (13 - 14..667)2 +. . .+ (21 - 14.667)2 = 276 SCInter= (9)[(15 - 14.667)2 + (14 - 14.667)2 + (15 - 14.667)2] = 6 SCIntra=(12 - 15)2 + (13 - 15)2 +. . .+ (21 - 15)2 = 270 Sommes des produits XY SCTotale= (5 - 7.33)(12 - 14.667) + (4 - 7.333)(13 - 14.667) +. . . + (13 - 7.333)(21 - 14.667) = 184 SCInter=(9)[(7 - 7.333)(15 - 14.667) + (5 - 7.333)(14 - 14.667) + (10 - 7.333)(15 - 14.667)] = 21 SCIntra=(5 - 7)(12 - 15) + (4 - 7)(13 - 15) +. . . + (13 - 10)(21 - 15) = 163

Sommes des carrées ajustées

SPSS

Moyennes ajustées

Postulats Indépendance des observations Homogénéité de la variance Normalité dans la population Homogénéité des pentes de régression

Homogénéité des pentes de régression If the regression slopes are not parallel we can NOT use ANCOVA Alternatives blocking matching difference scores

Vérification de l’homogénéité des pentes de régression

Médiation

Sources d’association entre deux ou plusieurs variables Effets causaux Effets non causaux Effets directs Effets indirects Anteced. partagées Ass. non analysées

Variable indépendante Modèle de médiation Variable médiatrice a b Variable indépendante Variable dépendante t’ Effet direct = t’ Effet indirect = ab Effet total = t’+ ab

Il y a médiation quand … (Baron & Kenny, 1986) L’effet direct de la variable indépendante sur la variable dépendante (t’) est significatif. Le chemin de la VI à la variable médiatrice (a) est significatif. Le chemin de la variable médiatrice à la VD (b) est significatif. Il y a médiation totale quand: Après contrôle de la variable médiatrice l’effet directe de la VI sur la VD (t’) devient non significatif.

Exemple Effet direct = t’=.42 Effet indirect = ab = .12 Effet après contrÔle de la variable médiatrice: .30

Vérification du chemin ab Test l’hypothèse que ab = 0 de Goodman (1960) avec a le coefficient non standardisé de la régression de la VM sur la VI b le coefficient non standardisé de la régression de la VD sur la VM (en contrÔlant pour la VI) sa erreur type de a = a/ta sb erreur type de b = b/tb Site avec calculatrice pour le test: http:/www.psych.ku.edu/preacher/sobel/sobel.htm.

Exemple SPSS Calcul de t’

Calcul de a a = .41, sa = .164

Calcul de b b = .40, sb = .096 Effet apès contrÔle de la variable médiatrice: .30

Test de Goodman b = .40 sb = .096 a = .41 sa = .164 Different versions of the above variance have been published. Sobel (1982) presents the above formula without the last term. Baron and Kenny (1986) present the above formula with the last term added, not subtracted. That formula is a population formula whereas the Goodman formula is the sample-based estimate. The Sobel formula is an approximation.

Ressources Site web de David Kenny Site web de Kristopher Preacher http://www.people.ku.edu/~preacher/sobel/sobel.htm Site web de David Kenny http://davidakenny.net/cm/mediate.htm MacKinnon, D. P., Lockwood, C. M., Hoffman, J. M., West, S. G., & Sheets, V. (2002). A comparison of methods to test mediation and other intervening variable effects. Psychological Methods, 7, 83-104. Judd, C. M., Kenny, D. A., & McClelland, G. H. (2001). Estimating and testing mediation and moderation in within - subject designs. Psychological Methods, 6, 115-134.