Laboratoire Inter-universitaire de Psychologie Dominique Muller Laboratoire Inter-universitaire de Psychologie Bureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr
Comparaison de modèles : test de b1 pour un modèle à un facteur continu Modèle contraint (MC) Modèle augmenté (MA)
Modèles à un facteur continu : régression simple b1 = 1.83, l’augmentation de 1.83 du pourcentage de bonnes réponses pour chaque augmentation d’un point de BEPC est significative Connaître la note au BEPC permet de prédire le pourcentage de bonnes rép.
Formalisation (1) VARIABLES : Y : le critère, la mesure ou VD Yi : valeur observée pour l’observation i sur la variable Y X1 et X2 : premier et second prédicteurs ou VIs (peuvent être manipulés ou mesurés) Xi1 et Xi2 : valeurs de X1 et X2 pour l’observation i PARAMETRES et ERREUR (ne pourront être qu’estimés) : : paramètres DANS LA POPULATION permettant de réduire les erreurs de prédiction lorsque les prédicteurs X1 et X2 sont utilisés (sous une forme donnée) : erreur de prédiction pour l’observation i lorsque X1 et X2 sont utilisées comme prédicteurs et si les VRAIS paramètres étaient connus
Formalisation (2) Yi, Xi1 et Xi2 : leurs sens restent inchangés b0, b1 et b2 : estimations respectives de sur la base de ces données ei : erreur de prédiction pour l’observation i lorsque X1 et X2 sont utilisés comme prédicteurs et que b0, b1 et b2 sont utilisés comme estimateurs : prédiction pour l’observation i sur la base de b0, b1 et b2 et des valeurs de X1 et X2 B0 : valeur fixée A PRIORI (ni valeur dans la population, ni estimée sur la base des données)
Formalisation (3) : résumé Lettres grecques : valeurs dans la population (à moins de pouvoir mesurer l’ensemble de la population, nous ne pourrons que les estimer) Lettres minuscules : estimations des valeurs que l’on observerait dans la population Lettres majuscules : variables (ex : Y, X1) ou valeurs fixées a priori (ex : B0)
Variables catégorielles (k = 2) : test t échantillons indépendants / ANOVA à un facteur Mesure (Y ou VD) : pourcentage de bonnes réponses à un test de connaissance (50 questions de math en vrai/faux) Prédicteur (X ou VI) : Présence d’Autrui (1) vs Seul (2) ; participants assignés aléatoirement au sein des deux conditions Commençons par le modèle simple (même prédiction pour toutes les observations) Là encore la valeur b0 correspondra à la moyenne de Prc (Y)
Faire mieux avec un modèle plus complexe ? Peut-on améliorer notre modèle en ajustant nos prédictions selon les valeurs de X (Présence d’Autrui) ? Pour le savoir, ajout de PA dans notre modèle : Ajouter PA dans la partie modèle de l’équation nous permet d’ajuster la prédiction en fonction des conditions (i.e., permettre à la pente d’être différente de 0) MPA MSeul
Interprétation des coefficients de régression Interprétation du b0 : ordonné à l’origine, c’est-à-dire la prédiction pour une valeur de PA = 0 Dans notre exemple, b0 = 30 donc pour les gens ayant un score de 0 sur la variable PA le modèle prédit un pourcentage d’erreurs de 30 Interprétation du b1 : il s’agit de la pente => de combien change la prédiction sur Prc lorsque l’on change d’une unité sur PA Prédiction pour PA = 1 => Prédiction pour PA = 2 => Or, 36 et 42 sont en effet les moyennes des deux conditions Ainsi, avec une seule unité de différence entre les deux conditions (PA=1 et Seul=2), b1 = différence de moyennes
Comparaison de modèles : test d’un modèle à un facteur catégoriel Modèle contraint (MC) Modèle augmenté (MA) Tester cette comp. de modèles revient donc à tester
ANOVA un facteur : calcul des SCE
Modèles ANOVA à un facteur (k =2) Lorsque l’on passe de la condition de présence d’autrui (1) à la condition seul (2) le taux de bonnes réponses augmente de 6 points : Nous observons donc un effet d’inhibition sociale mais il est non-significatif
Code de contrastes Code de contrastes, règle 1 : Avec PAc Avec le code attribué à chaque groupe Et k, les k groupes -1 / 1 est donc un code de contraste (mais aussi - 0.5 / 0.5…)
Code de contrastes PAc Divise simplement la pente par deux, car il y a maintenant deux unités de différence entre PA (-1) et Seul (1) Afin d’obtenir directement la différence de moyennes, on préférera un codage -0.5 / 0.5
Dummy coding PAd b0 est toujours la prédiction pour PA = 0 Or, avec ce nouveau codage, cette prédiction correspond à la condition PA Le test de b0 sera donc le test de la moyenne de PA contre 0 MC : vs. MA :
Règles d’application de la méthode des moindres carrés Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les Ces résidus doivent être : distribués normalement avoir une variance constante être indépendants les uns des autres * * ***
Règles d’application de la méthode des moindres carrés Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les Ces résidus doivent être : distribués normalement avoir une variance constante être indépendants les uns des autres * * ***
Distribution des résidus Performance en fonction de la taille
Distribution des résidus « Histogramme » des résidus
Distribution des résidus « Histogramme » des résidus Bonne nouvelle : => Toutes les violations de la normalité ne sont pas graves
Ce qui est important par rapport à la normalité La distribution uniforme, un problème ? Moins un problème ?
Tous les votes ne naissent pas égaux
Ce qui est important par rapport à la normalité La distribution uniforme, un problème ? Moins un problème ? Les violations par rapport à la normalité ne sont problématiques que pour les extrémités Comment savoir si c’est le cas ?
Diagramme des quantiles - quantiles Les observations sur la droite suivent la loi normale Problème (ici) si les observations extrêmes aplatissent la droite : En dessous de la droite en haut En dessus de la droite en bas
Règles d’application de la méthode des moindres carrés Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les Ces résidus doivent être : distribués normalement avoir une variance constante être indépendants les uns des autres * * ***
Variance constante des résidus Performance en fonction de la taille
Variance constante des résidus
Variance constante des résidus Distribution problématique : en entonnoir
Variance constante des résidus : autre représentation Il nous suffit maintenant de regarder s’il existe une relation entre les deux variables
Règles d’application de la méthode des moindres carrés Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les Ces résidus doivent être : distribués normalement avoir une variance constante être indépendants les uns des autres * * ***
Effet de l’habitat sur la satisfaction dans le couple : présentation des résidus (ei) On voit clairement ici que les résidus ne sont pas indépendants à l’intérieur des couples
Remèdes Si les résidus ne sont pas (ou n’ont pas) : distribués normalement une variance constante indépendants les uns des autres => Transformations => Tests non-paramètriques (dernier recours) => Transformations => Tests non-paramètriques => Tests paramètriques type Welch => Jouer sur le nombre d’observations
Type d’erreurs Erreur de Type I : rejeter H0 à tord (nous disons qu’un effet existe alors qu’il n’existe pas) Erreur de Type II : ne pas rejeter H0 à tord (un effet existe mais nous ne le voyons pas)
Hétérogénéité des variances et nombre de sujets par condition (Tomarken & Serlin, 1986) Nombre de sujets par condition et variance sont liés positivement => augmentation des erreurs de Type II Nombre de sujets par condition et variance sont liés négativement => augmentation des erreurs de Type I Nombre de sujets par condition et variance sont indépendants (même nombre de sujets par condition) => très faible augmentation des erreurs de Type I Se ramener au même nombre de sujets par condition permet de diminuer les risques
Remèdes Si les résidus ne sont pas (ou n’ont pas) : distribués normalement une variance constante indépendants les uns des autres => Transformations => Tests non-paramètriques (dernier recours) => Transformations => Tests non-paramètriques => Tests paramètriques type Welch => Jouer sur le nombre d’observations => Autres types de tests
Types de problèmes et types de transformations Transformer les données pour atteindre la normalité Pour les distributions « plates » : inverse (1/Y) Pour les distributions « asymétriques + » : log ou inverse Pour les distributions « asymétriques - » : racine carré Transformer les données pour atteindre une variance constante des résidus (homoscédasticité) Cône des résidus ouvert à droite : inverse Cône des résidus ouvert à gauche : racine carré