Laboratoire Inter-universitaire de Psychologie

Slides:



Advertisements
Présentations similaires
Introduction aux statistiques Intervalles de confiance
Advertisements

ORTHOGRAM PM 3 ou 4 Ecrire: « a » ou « à » Référentiel page 6
LES NOMBRES PREMIERS ET COMPOSÉS
La Méthode de Simplexe Standardisation
Corrélation Position du problème Définition covariance (X,Y) r =
ANOVA à un facteur (Rehailia)
Test statistique : principe
Chapitre 5. Description numérique d’une variable statistique.
Les Prepositions.
La régression logistique: fondements et conditions d’application
C1 Bio-statistiques F. KOHLER
Inférence statistique
Régression ou corrélation
Tests de comparaison de pourcentages
1. Les caractéristiques de dispersion. 11. Utilité.
La diapo suivante pour faire des algorithmes (colorier les ampoules …à varier pour éviter le « copiage ») et dénombrer (Entoure dans la bande numérique.
Régression -corrélation
Laboratoire Inter-universitaire de Psychologie Cours 3
Laboratoire Inter-universitaire de Psychologie Cours 4
Laboratoire Inter-universitaire de Psychologie Cours 6
Analyse de la variance à un facteur
Analyse de la variance à deux facteurs (données déséquilibrées) Michel Tenenhaus.
1 Analyse de la variance multivariée Michel Tenenhaus.
07/24/09 1.
Christelle Scharff IFI 2004
LES ÉLASTICITÉS DE LA DEMANDE ET DE L’OFFRE
Application des algorithmes génétiques
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Cours de physique générale I Ph 11
Etude longitudinale d’essais multilocaux: apports du modèle mixte
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
SUJET D’ENTRAINEMENT n°2
Régression linéaire simple
Groupe 1: Classes de même intervalle
Tableaux de distributions
Tableaux de distributions
LES NOMBRES PREMIERS ET COMPOSÉS
1.3 COORDONNÉES DES POINTS
L’Analyse de Covariance
Corrélation et régression linéaire simple
L’Analyse de Variance 1 Généralités Le modèle Calculs pratiques
La Saint-Valentin Par Matt Maxwell.
Représentation des systèmes dynamiques dans l’espace d’état
Représentation des systèmes dynamiques dans l’espace d’état
Représentation des systèmes dynamiques dans l’espace d’état
Toutes les variables étaient mesurées au niveau intervalle et sans erreur Toutes les variables étaient mesurées au niveau intervalle et sans erreur ->
La corrélation et la régression multiple
La corrélation et la régression
La régression logistique
La corrélation et la régression
Les modèles linéaires (Generalized Linear Models, GLM)
Corrélation Principe fondamental d’une analyse de corrélation
Notre calendrier français MARS 2014
Géométrie analytique Relations entre deux droites Remarque:
LE CHOIX DU CONSOMMATEUR ET LA DEMANDE
Veuillez trouver ci-joint
Ordonnancement de tâches
Résoudre une équation du 1er degré à une inconnue
SUJET D’ENTRAINEMENT n°4
La régression multiple
Méthodes de prévision (STT-3220)
Mise en forme en Mathématiques
Equation différentielle
CALENDRIER-PLAYBOY 2020.
Les Chiffres Prêts?
ESTIMATION 1. Principe 2. Estimateur 3. Distribution d’échantillonnage
Rappels de statistiques descriptives
Comparaison de plusieurs moyennes observées
Introduction aux statistiques Intervalles de confiance
Transcription de la présentation:

Laboratoire Inter-universitaire de Psychologie Dominique Muller Laboratoire Inter-universitaire de Psychologie Bureau : 238 Tel : 04 76 82 58 90 Email : dominique.muller@upmf-grenoble.fr

Comparaison de modèles : test de b1 pour un modèle à un facteur continu Modèle contraint (MC) Modèle augmenté (MA)

Modèles à un facteur continu : régression simple b1 = 1.83, l’augmentation de 1.83 du pourcentage de bonnes réponses pour chaque augmentation d’un point de BEPC est significative Connaître la note au BEPC permet de prédire le pourcentage de bonnes rép.

Formalisation (1) VARIABLES : Y : le critère, la mesure ou VD Yi : valeur observée pour l’observation i sur la variable Y X1 et X2 : premier et second prédicteurs ou VIs (peuvent être manipulés ou mesurés) Xi1 et Xi2 : valeurs de X1 et X2 pour l’observation i PARAMETRES et ERREUR (ne pourront être qu’estimés) : : paramètres DANS LA POPULATION permettant de réduire les erreurs de prédiction lorsque les prédicteurs X1 et X2 sont utilisés (sous une forme donnée) : erreur de prédiction pour l’observation i lorsque X1 et X2 sont utilisées comme prédicteurs et si les VRAIS paramètres étaient connus

Formalisation (2) Yi, Xi1 et Xi2 : leurs sens restent inchangés b0, b1 et b2 : estimations respectives de sur la base de ces données ei : erreur de prédiction pour l’observation i lorsque X1 et X2 sont utilisés comme prédicteurs et que b0, b1 et b2 sont utilisés comme estimateurs : prédiction pour l’observation i sur la base de b0, b1 et b2 et des valeurs de X1 et X2 B0 : valeur fixée A PRIORI (ni valeur dans la population, ni estimée sur la base des données)

Formalisation (3) : résumé Lettres grecques : valeurs dans la population (à moins de pouvoir mesurer l’ensemble de la population, nous ne pourrons que les estimer) Lettres minuscules : estimations des valeurs que l’on observerait dans la population Lettres majuscules : variables (ex : Y, X1) ou valeurs fixées a priori (ex : B0)

Variables catégorielles (k = 2) : test t échantillons indépendants / ANOVA à un facteur Mesure (Y ou VD) : pourcentage de bonnes réponses à un test de connaissance (50 questions de math en vrai/faux) Prédicteur (X ou VI) : Présence d’Autrui (1) vs Seul (2) ; participants assignés aléatoirement au sein des deux conditions Commençons par le modèle simple (même prédiction pour toutes les observations) Là encore la valeur b0 correspondra à la moyenne de Prc (Y)

Faire mieux avec un modèle plus complexe ? Peut-on améliorer notre modèle en ajustant nos prédictions selon les valeurs de X (Présence d’Autrui) ? Pour le savoir, ajout de PA dans notre modèle : Ajouter PA dans la partie modèle de l’équation nous permet d’ajuster la prédiction en fonction des conditions (i.e., permettre à la pente d’être différente de 0) MPA MSeul

Interprétation des coefficients de régression Interprétation du b0 : ordonné à l’origine, c’est-à-dire la prédiction pour une valeur de PA = 0 Dans notre exemple, b0 = 30 donc pour les gens ayant un score de 0 sur la variable PA le modèle prédit un pourcentage d’erreurs de 30 Interprétation du b1 : il s’agit de la pente => de combien change la prédiction sur Prc lorsque l’on change d’une unité sur PA Prédiction pour PA = 1 => Prédiction pour PA = 2 => Or, 36 et 42 sont en effet les moyennes des deux conditions Ainsi, avec une seule unité de différence entre les deux conditions (PA=1 et Seul=2), b1 = différence de moyennes

Comparaison de modèles : test d’un modèle à un facteur catégoriel Modèle contraint (MC) Modèle augmenté (MA) Tester cette comp. de modèles revient donc à tester

ANOVA un facteur : calcul des SCE

Modèles ANOVA à un facteur (k =2) Lorsque l’on passe de la condition de présence d’autrui (1) à la condition seul (2) le taux de bonnes réponses augmente de 6 points : Nous observons donc un effet d’inhibition sociale mais il est non-significatif

Code de contrastes Code de contrastes, règle 1 : Avec PAc Avec le code attribué à chaque groupe Et k, les k groupes -1 / 1 est donc un code de contraste (mais aussi - 0.5 / 0.5…)

Code de contrastes PAc Divise simplement la pente par deux, car il y a maintenant deux unités de différence entre PA (-1) et Seul (1) Afin d’obtenir directement la différence de moyennes, on préférera un codage -0.5 / 0.5

Dummy coding PAd b0 est toujours la prédiction pour PA = 0 Or, avec ce nouveau codage, cette prédiction correspond à la condition PA Le test de b0 sera donc le test de la moyenne de PA contre 0 MC : vs. MA :

Règles d’application de la méthode des moindres carrés Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les Ces résidus doivent être : distribués normalement avoir une variance constante être indépendants les uns des autres * * ***

Règles d’application de la méthode des moindres carrés Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les Ces résidus doivent être : distribués normalement avoir une variance constante être indépendants les uns des autres * * ***

Distribution des résidus Performance en fonction de la taille

Distribution des résidus « Histogramme » des résidus

Distribution des résidus « Histogramme » des résidus Bonne nouvelle : => Toutes les violations de la normalité ne sont pas graves

Ce qui est important par rapport à la normalité La distribution uniforme, un problème ? Moins un problème ?

Tous les votes ne naissent pas égaux

Ce qui est important par rapport à la normalité La distribution uniforme, un problème ? Moins un problème ? Les violations par rapport à la normalité ne sont problématiques que pour les extrémités Comment savoir si c’est le cas ?

Diagramme des quantiles - quantiles Les observations sur la droite suivent la loi normale Problème (ici) si les observations extrêmes aplatissent la droite : En dessous de la droite en haut En dessus de la droite en bas

Règles d’application de la méthode des moindres carrés Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les Ces résidus doivent être : distribués normalement avoir une variance constante être indépendants les uns des autres * * ***

Variance constante des résidus Performance en fonction de la taille

Variance constante des résidus

Variance constante des résidus Distribution problématique : en entonnoir

Variance constante des résidus : autre représentation Il nous suffit maintenant de regarder s’il existe une relation entre les deux variables

Règles d’application de la méthode des moindres carrés Afin d’utiliser la méthode des moindres carrés (test t, ANOVA, ANCOVA…) plusieurs règles doivent être respectées Ces règles portent sur la distribution des résidus (aucune règle concernant la distribution des prédicteurs), c’est-à-dire les Ces résidus doivent être : distribués normalement avoir une variance constante être indépendants les uns des autres * * ***

Effet de l’habitat sur la satisfaction dans le couple : présentation des résidus (ei) On voit clairement ici que les résidus ne sont pas indépendants à l’intérieur des couples

Remèdes Si les résidus ne sont pas (ou n’ont pas) : distribués normalement une variance constante indépendants les uns des autres => Transformations => Tests non-paramètriques (dernier recours) => Transformations => Tests non-paramètriques => Tests paramètriques type Welch => Jouer sur le nombre d’observations

Type d’erreurs Erreur de Type I : rejeter H0 à tord (nous disons qu’un effet existe alors qu’il n’existe pas) Erreur de Type II : ne pas rejeter H0 à tord (un effet existe mais nous ne le voyons pas)

Hétérogénéité des variances et nombre de sujets par condition (Tomarken & Serlin, 1986) Nombre de sujets par condition et variance sont liés positivement => augmentation des erreurs de Type II Nombre de sujets par condition et variance sont liés négativement => augmentation des erreurs de Type I Nombre de sujets par condition et variance sont indépendants (même nombre de sujets par condition) => très faible augmentation des erreurs de Type I Se ramener au même nombre de sujets par condition permet de diminuer les risques

Remèdes Si les résidus ne sont pas (ou n’ont pas) : distribués normalement une variance constante indépendants les uns des autres => Transformations => Tests non-paramètriques (dernier recours) => Transformations => Tests non-paramètriques => Tests paramètriques type Welch => Jouer sur le nombre d’observations => Autres types de tests

Types de problèmes et types de transformations Transformer les données pour atteindre la normalité Pour les distributions « plates » : inverse (1/Y) Pour les distributions « asymétriques + » : log ou inverse Pour les distributions « asymétriques - » : racine carré Transformer les données pour atteindre une variance constante des résidus (homoscédasticité) Cône des résidus ouvert à droite : inverse Cône des résidus ouvert à gauche : racine carré