Analyse & traitement de données : Validité et fiabilité

Slides:



Advertisements
Présentations similaires
L’évaluation dans le cadre de l’approche par compétences
Advertisements

Utilisation du logiciel EduStat © Analyse classique d’items L’examen du rapport.
Les cinq domaines du socle Les compétences : - en CAP, BEP et bac pro - en Mathématiques pour le cycle 4 - en Physique-Chimie pour le cycle 4.
Chapitre 5 Interprétation des données d’enquête
SITUATION DE REFERENCE
Suites ordonnées ou mettre de l’ordre
Missions maîtrise de la langue et maternelle Année scolaire
Le suivi évaluation : de quoi s'agit-il et à quoi cela sert-il ?
POL3140 Psychologie politique
Valeurs de toutes les différences observables sous H0
Marketing et aspects juridiques
Madame/Monsieur le professeur ,,,,,
UNE PRATIQUE ENSEIGNANTE DES SCIENCES DE LA VIE ET DE LA TERRE POUR UN ENSEIGNEMENT, APPRENTISSAGE DE REUSSITE SCOLAIRE.
Information et Système d’Information
Initiation des recherches dans le domaine de l’enseignement
4°) Intervalle de fluctuation :
L’ échelle d’évaluation critériée et didactisée
Analyse en Composantes Principales A.C.P. M. Rehailia Laboratoire de Mathématiques de l’Université de Saint Etienne (LaMUSE).
Présentation multimédia avec open office
APERCU SUR LA METHODOLOGIE Rencontre avec les agrégatifs
POL1803: Analyse des techniques quantitatives
Des expériences comparatives à répartition aléatoire
Association départementale du Morbihan
Les plans de mélange Les plans d’expérience : Présentée par :
Projet de recherche L’homéostasie du corps humains
Plans d’experiences : plans de melanges
La démarche d’investigation
FICHE METHODOLOGIE 1 Spécificités des données et des informations à caractère sanitaire et social.
Objectifs du chapitre 5: Plans corrélationnels
Technologies de l’intelligence d’affaires Séance 12
Mesure des habiletés de la pensée informatique, centrée sur des tâches Bebras dans des environnements de programmation visuelle ou tangible Takam Djambong 
Méthodologie de la recherche Programme du module.
Le Plan National Canicule 2017
Introduction à la préservation X
MENER UNE ETUDE DE LA CONCURRENCE
Cyber-Sphinx Séance 2.
LE b. a. ba d’A.B.M.A. « aller bien pour mieux apprendre » Implantation d’un dispositif de promotion de la santé en milieu scolaire Equipe ABMA.
Thème 5 : Mesures. Cours 1 : L’heure (1).
ACP Analyse en Composantes Principales
Mise à jour du 19 septembre 2018 Rémi Bachelet
Calculs des incertitudes Lundi 30 Avril 2018 Master de Management de la Qualité, de la Sécurité et de l’Environnement.
INDICATEURS ET TABLEAUX DE BORD EN MAINTENANCE. Définitions Indicateur : chiffre significatif d’une situation économique pour une période donnée. Tableau.
Les sessions de finance expérimentale avec .
Programme financé par l’Union européenne
La méthode scientifique
Présentation de la grille d’auto-évaluation et d’entretien
Éventail des méthodes de collecte de données
Cours de référencement : les fondamentaux
Valeurs et enseignement
OUTILS PROJETS : Analyse Fonctionnelle
La recherche au service du communicateur: Cours 4 Automne 2006
Diapositives 1A : Valeurs, croyances et perspectives
Titre de la communication
Présentation 8 : Redressement des estimateurs
R é publique alg é rienne d é mocratique et populaire Minist è re du travail de l ’ emploi et de la s é curit é sociale Ecole sup é rieure de la s é curit.
Centre d’études et de recherches sur les qualifications
LES DÉMARCHES ET APPROCHES AU CYCLE 3 Que disent les programmes ? Source : Bulletin officiel spécial n°11 du 26 novembre 2015 Réalisé par
Janvier 2019 IA-IPR Physique-Chimie
Diapositives 1A : Valeurs, croyances et perspectives
Les erreurs de mesure Projet d’Appui au renforcement des capacités
LES AXES TRAITÉS : DÉFINITION D’ÉVALUATION L’ÉVALUATION PEDAGOGIQUE FONCTION DE L’ÉVALUATION CARACTERISTIQUES DE L’ÉVALUATION TYPES D’ÉVALUATION CONCLUSION.
La démarche scientifique
Programme d’appui à la gestion publique et aux statistiques
Les méthodes quantitatives en éducation
Sous-échantillonner le signal audio pour compresser
Objectifs du chap. 5: Plans quasi-expérimentaux
Mallette pédagogique Quelques propriétés physiques de l’eau
Diapositives 1A : Valeurs, croyances et perspectives
TD Comment les économistes, les sociologues et les politistes travaillent-ils et raisonnent-ils ? M. Osenda.
UX DESIGN User exprérience en anglais Expérience Utilisateur en français Concevoir, Créer, dessiner UX DESIGN, consiste à penser et concevoir un site web.
Transcription de la présentation:

Analyse & traitement de données : Validité et fiabilité Mise à jour du 11 novembre 2018 Rémi Bachelet Dernière version des diapos disponible ici : Validité et fiabilité Cours distribué sous licence Creative Commons, selon les conditions suivantes : bachelet@bigfoot.com École Centrale de Lille Villeneuve d’Ascq - France Image: source Source des images indiquées au-dessous ou en cliquant sur l’image

Comment utiliser ce cours : Mettre les diapos en format plein écran en cliquant sur Faire défiler l’animation en cliquant sur les diapositives (attention : cliquer sur une image ou un lien ouvre la page web correspondante)

Tester des hypothèses Exemple : Le réchauffement climatique est-il une certitude ? Si oui d’où vient-il ? « Il n’y a pas de réchauffement climatique » => réfuté avec de plus en plus de certitude d’année en année (désormais >95%) Autres hypothèses Le réchauffement climatique est lié à l’activité solaire => réfuté Le réchauffement climatique est lié à l’activité humaine => … Cf : travaux du GIEC

A la recherche de la vérité … La Vérité sortant du puits Edouard Debat-Ponsan, musée de l'Hôtel de ville d'Amboise Domaine Public  Pour trouver la vérité, faut-il tester des hypothèses, jusqu’à faire « sortir la vérité du puits » ? Qui ne veut pas voir « la vérité toute nue » ?

Conjectures et réfutations On ne prouve pas qu’une théorie est vraie, on prouve que les théories concurrentes sont fausses La théorie « vraie » est celle qui Explique un phénomène le mieux possible … permet de formuler des hypothèses réfutables : principe criticiste … mais pas encore réfutées : principe faillibiliste Autrement dit, il n’y a pas de théorie vraie, mais seulement une « meilleure théorie » qui est : parmi celles qui sont proposées…. … la plus « élégante » (pouvoir explicatif + rasoir d’Occam) … …. dont on dispose à un moment donné, en attendant… (K. Popper)

Il n’y a pas de vérité scientifique, mais une population de théories en concurrence

Validité et Fiabilité Lorsque l’on mesure une grandeur, on souhaite que les résultats soient utiles et reflètent bien les concepts qu’elle représente. À cet effet, on a deux préoccupations : Le dispositif de recherche doit être valide La mesure doit être fiable Bibliographie / sources : William D. Richards http://www.uwm.edu/People/hessling/p325/Psy325_Chap3.pdf Bob Hessling http://www.sfu.ca/~richards/Zen/show4/ch4.html Igalens et Roussel, « Méthodes de recherche en management », chap 10

La Validité Les trois exigences de validité Validité interne Validité externe Validité de construit / concept

Validité interne Validité interne = On a bien identifié cause et effet Autrement dit, pas d’explication rivale : les variations de la variable à expliquer sont causées uniquement par les variables explicatives A B X A B ? ou

Qu’est-ce que la causalité ? Selon John Stuart Mill (1806-1873), trois critères permettent d’inférer la causalité : La covariation, Cause et effet sont corrélés La précédence temporelle La cause précède l’effet L’élimination d’explications alternatives. Pas de troisième variable Trouvez huit biais limitant cette validité interne … et les moyens de les éviter (application à un questionnaire d’intention d’achat d’une population dans un centre commercial...) John Stuart Mill, 1865 John Watkins (1823-1874) Domaine Public 

Huit biais limitant la validité interne (1/2) Comment l’éviter Origine Type Effet d’histoire Des évènements extérieurs à l’étude faussent les résultats (Noël) Examen critique de la période d’étude Réduire la période d’étude Effet de maturation Les individus ont changé pendant l’étude (réussite/échec au bac, entre ou sort du centre commercial) Examen critique des individus Réduire la période d’étude Effet de test (not. pour une étude longitudinale/ par panel) Les réponses au deuxième questionnaire sont affectées par le fait d’avoir déjà répondu (mémoire) Ne pas questionner deux fois les mêmes individus (?) Éviter la mémorisation ? Effet d’instrumentation Les questions utilisées pour recueillir les données sont mal formulées (mots compliqués….) faire valider le questionnaire par un expert protocole normalisé Méthode de la pensée à voix haute.. Campbell DT, Stanley JC (1966). “Experimental and quasi-experimental designs for research”.

Huit biais limitant la validité interne (2/2) Comment l’éviter Origine Type Effet de régression statistique Présélection des individus sur la base de caractère extrêmes (les participants avec les plus mauvais résultats à un test sont inclus dans un programme de formation, ils réussissent au prochain test peu importe le programme, … parce que les probabilités d'obtenir d'aussi mauvais résultats deux fois sont faibles) Revoir la constitution de l’échantillon Effet de sélection L’échantillon n’est pas représentatif de la population pertinente (les enquêteurs sont actifs la journée, mais plus après 20h… les PCS faisant les courses tard sont oubliées) Attention au plan de collecte ! Effet de mortalité expérimentale (pour une étude longitudinale/ par panel) Des sujets disparaissent en cours d’étude (des participants abandonnent l’étude) Remplacer les sujets perdus Optimiser les moyens de garder le contact. Effet de contamination Un individu interrogé apprend à l’avance par les autres l’objet de l’étude ou les réponses attendues Cacher objectif/les moyens de l’étude Mener l’étude rapidement éviter la communication entre sujets Campbell DT, Stanley JC (1966). “Experimental and quasi-experimental designs for research”.

Validité externe Validité externe = Les résultats sont-ils généralisables ? Autres situations : pays, époques, populations …. Un risque : « Overfit » : en recherche inductive, on construit un modèle à partir de données… et parfois celui-ci colle tellement à ces données … qu’il ne représente plus le phénomène qu’on voulait étudier au départ.… mais uniquement les données. Une faible validité externe signifie que l’on ne peut pas généraliser, mais la recherche peut tout de même être intéressante (on a très bien étudié un terrain donné). Toujours revenir sur la validité externe en conclusion d’une étude (« limites et perspectives »). À développer, en particulier à partir de pp281+ igalens et roussel

Validité interne et externe s’opposent-elles ? À votre avis ?

Validité interne et externe s’opposent-elles ? À votre avis ? la validité interne demande un meilleur contrôle des situations observées la validité externe demande des situations, méthodes et terrains de collecte plus variés et ouverts Plus on multiplie les situations, plus le contrôle qu’on peut exercer sur les biais est faible. Donc … Oui

Validité de construit / concept Validité de construit = on mesure bien ce que l’on veut mesurer Les recherches en sciences humaines portent sur des concepts abstraits non toujours directement observables (le changement, l’autonomie, les savoirs-être... ). Les théories étudiées reposent donc sur des concepts, souvent polysémiques et difficiles à définir. Il faut donc valider la relation : Concept abstrait Construit (définition opérationnelle du concept) Croyance en dieu Dimension conséquentielle Dimension Ritualiste Faites-vous des dons à des organisations caritatives ? Vous est-il arrivé de payer quelqu’un « au noir » ? Allez-vous à la messe ? Avez-vous fait baptiser vos enfants ?

Les critères de validité de concept / construit On compte jusqu’à douze moyens de l’évaluer, retenons notamment La validité de contenu L’opérationnalisation représente le concept sous tous ses aspects La validité d’observation Degré auquel le concept étudié peut se réduire à des observations La validité de critère Degré auquel on peut affirmer que le construit opérationnalisé est corrélé au concept qu’il est sensé représenter. La validité de trait Degré auquel on peut affirmer que le construit opérationnalisé permet de mesurer le concept qu’il est sensé représenter. La validité discriminante Renvoie à la sensibilité/spécificité de l'échelle de mesure. La validité convergente Deux mesures du concept par deux méthodes différentes sont efficaces. La validité divergente Degré auquel le concept diffère d’autres concepts proches La validité systémique Degré auquel le concept permet l’intégration de concepts antérieurs ou de produire de nouveaux concepts … Voyons comment mettre en évidence les validités convergente et discriminante Larocque, B., Brissson, C., Blanchette, C. (1998).  Cohérence interne, validité factorielle etvalidité discriminante de la traduction française des échelles de demande psychologique et de latitude décisionnelle du « Job Content Questionnaire » de Karasek = Internal consistency, factorial validity, and discriminant validity of the French version of the psychological demands and decision latitude scales of the Karasek Job Content Questionnaire. Revue d'épidémiologie et de sante publique, 46(5), 371-381. Zaltman, Pinson, and Angelmar, 1973 “Metatheory and Consumer Research” amendement de S de Chalvron pour la validité discriminante

Évaluer la validité de construit : Matrice multitraits-multiméthodes La matrice multitraits-multiméthodes synthétise la corrélation entre les mesures de différents traits par des méthodes différentes Method 1 – Experiment 1 Method 2 – Experiment 1 Method 3 – Experiment 1 On peut aussi corréler les traits et méthodes avec eux-mêmes (plusieurs expériences). On évalue ainsi la reproductibilité d’une méthode …. = sa fiabilité. cf page suivante Method 1 – Experiment 1 =1 sur la diagonale Method 2 – Experiment 1 diagonale monotrait-multiméthodes = validité convergente multitraits-multiméthodes = validité discriminante Method 3 – Experiment 1 Campbell DT, Stanley JC (1966). “Convergent and discriminant validation by the multitrait-multimethod matrix”. Image d’origine: http://www.acm.org/sigchi/chi97/proceedings/paper/nt-tb3.gif

La Fiabilité (reliability) La mesure est-elle régulière ? La question de la fiabilité de l’instrument de mesure

Qu’est-ce que la fiabilité? Les opérations de la recherche peuvent être répétées à un autre moment par un autre chercheur avec le même résultat. Une mesure parfaite donne le même résultat à chaque fois qu’elle est refaite. Trop de variabilité (écart-type) entre mesures = instrument pas fiable

Mesures de fiabilité en recherche quantitative Mesure lue = vraie valeur + erreur aléatoire + erreur systématique Méthodes d’estimation de la fiabilité Re-retest Refaire exactement la même mesure à des moments différents. Méthodes des formes alternatives Re-retest avec un test différent (alternatif) mais mesurant la même chose. Mesure de la cohérence interne Pour une échelle construite à partir de plusieurs items, tester leur cohérence. Alpha de Cronbach, rho de Jöreskog …

Validité et Fiabilité sont ils réservés à la recherche quantitative ? Non ! Mais on ne procède pas de la même manière deux ces deux cas Quanti => tests statistiques Quali => prendre certaines précautions, par exemple vérifier si on conserve le même résultat en changeant d’observateur Problèmes possibles pour le qualitatif : Critères observés ambigus Mal former les observateurs/enquêteurs problème d’harmonisation ses données collectées Situation trop dure à étudier

Pour mémoriser ce cours, voici une carte conceptuelle, vous trouverez ici d’autres cartes heuristiques sur ce cours

Questions ?

Autres cours : Explorer ou vérifier ? Deux catégories d’approches Éventails des démarches de recueil de données Conception de questionnaires Techniques d’entretien et reformulation L'Analyse Factorielle des Correspondances pour les nuls Validité et Fiabilité des données

Rémi BACHELET Enseignant-chercheur, Ecole Centrale de Lille Mon CV est disponible ici. Mes principaux cours à Centrale Gestion de projet, sociologie des organisations, recueil, analyse et traitement de données, prévention du plagiat, module de marchés financiers, cours de qualité et méthodes de résolution de problèmes, établir des cartes conceptuelles, utiliser Wikipédia et CentraleWiki, formation au coaching pédagogique et à l'encadrement