Son papier de synthèse

Slides:



Advertisements
Présentations similaires
Corrélation Position du problème Définition covariance (X,Y) r =
Advertisements

C1 Bio-statistiques F. KOHLER
Inférence statistique
Régression -corrélation
COURS 5 Les tableaux croisés, le chi-carré et la corrélation
Chapitre 2 Les indices.
Arrêt é : relatif aux enseignements dispens é s dans les formations sous statut scolaire pr é parant au baccalaur é at professionnel Article 1 La liste.
Régression linéaire simple
L’observation directe du comportement
L’Analyse de Covariance
Corrélation et régression linéaire simple
Analyse de la variance multivariée
La corrélation et la régression
La corrélation et la régression
Objectifs du chapitre 2 d’Howell sur les statistiques descriptives
La régression multiple
Simulation d’un processus de Poisson
Régression linéaire multiple : hypothèses & tests. Partie 3.
GTS813: cours #6 Évaluation d’une mesure (Validité, Répétabilité, Fiabilité, précision) Activité. Études de cas #2: Qui pose la question? La question est-elle.
Probabilités et Statistiques Année 2010/2011
Régression linéaire Jonathan Lenoir (MCU),
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :34 1 Les modèles linéaires (Generalized Linear.
STATISTIQUES.
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Défi Desjardins Mars 2014 Centre d’Expertise en Modélisation et Recherche.
Apprentissage automatique L’apprentissage automatique.
Article très intéressant et surtout très convivial sur les qualités métrologiques des outils de mesure : Fortin, F. (1994). Propriétés métrologiques des.
ABF Améliorer nos formations pour une microfinance plus sociale.
1 M2 Biomatériaux- Cours n°3 1 - Rappels du cours n°1 et La statistique inférentielle Fluctuation d’échantillonnage, Théorème central limite Estimation.
Cours de Biostatistiques 14 avril 2012 Noémi ARDITI Delphine COUDRAY.
TP2: Statistique & Probabilité Intervalle de confiance et test d’hypothèses.
1 TECHNOLOGIE EN SEGPA Objets techniques instrumentés, didactisés et maquettisés que préconisent les nouveaux programmes Stage 10SEGDES2 du 14 et 15 décembre.
Mediator 9 - Un outil de développement multimédia 3AC Techno/Informatique.
Plans d'expérience Méthode Taguchy Analyse de la variance Anavar.
Paramétrisation adaptative pour l’estimation des paramètres hydrodynamiques dans un milieu poreux non saturé MOMAS-Thème E: Problèmes inverses et analyse.
VISITES 8/11/2007 – Sortie SEMINIS Rendez-vous 13h30 devant la Fac – Retour 18h30 6/12/2007 – Sortie RAGT Rendez-vous à 11h00 devant la Fac – Retour 22h00.
LCA UFR SMBH (DCEM)1 Analyse critique d ’articles évaluant l ’intérêt de nouveaux tests à visée diagnostique Alain Venot UFR SMBH Campus virtuel SMBH
S OULEYMANE MBAYE M AÎTRE - ASSISTANT ASSOCIÉ À L ’U NIVERSITÉ A. S ECK DE Z IGUINCHOR -S ÉNÉGAL. D ÉPARTEMENT E CONOMIE -G ESTION XXIX J OURNÉES ATM-UPEC.
1 M2 Biomatériaux- Cours n°4 1 - Rappels du cours n°1 et 2 et Introduction au principe des test statistiques.
Un cadre de présentation 1 Titre + Slogan illustration Mission + Génèse Equipe : Qui sommes Nous ? Avancée du projet : Où en sommes nous ? Présentez vous.
1 M1 MQSE 1 - L’outil statistique pour tirer des conclusions dans un monde de variabilité 2 - Utiliser la statistique: se confronter au hasard 3 - La statistique:
Les méthodes de tests Les grands principes pour réaliser des tests efficaces.
3. Exemple détaillé: Estimation des émissions de N 2 0 Aurore Philibert Doctorante en statistique appliquée à l’agronomie Oracle Kick-off Meeting
Un outil spécifique à Moodle pour le calcul des indicateurs d’interaction Présenté par : Tarek DJOUAD Laboratoire LIRIS, Lyon1 Équipe SILEX
Aurélien Besnard.  Des fréquences (points-contacts) évaluées sur…  …des transects choisis dans…  …des Aires de Présence (de surfaces évaluées) dans…
Enabling innovation in construction 1 Topic Training Fondations Irca Schepers Customer Service Engineer.
Chapitre 2 Variables aléatoires 1. Variables aléatoires : définition Résultat d’une expérience dont l’issue est multiple (VARIABLE) et imprévisible (ALÉATOIRE)
Chapitre 6 Les tests d ’ hypoth è se 2 – Les tests du  2 (chi 2)
L’accueil du nouveau-né en salle de naissance: implications de l’instauration de la méthode du peau à peau. Anne-Sophie Van Acker Anne-Sophie Van Acker.
FLEXION PLANE SIMPLE Résistance des matériaux 1.Essai de flexion-paramètres influents 2.Essai-Mesures des déformations normales dans une section.
Des statistiques descriptives et multi- variées aux statistiques de deuxième génération Séance 2.
Chapitre 5 Interprétation des données d’enquête 1.
LARRAS CHAFIKA ENSEIGNANTE CHERCHEUSE Approche systémique.
On the analysis of CMMN expressiveness: revisiting workflow patterns Renata Carvalho Hafedh Mili.
Les limites de l’UML Présenté par : Samah Dekhil 1.
Caractérisation dimensionnelle de défauts par thermographie infrarouge stimulée. Contrôles et Mesures Optiques pour l’Industrie novembre
GESTION DE PORTEFEUILLE chapitre n° 6 Risque diversifié et risque diversifiable Le MEDAF.
Justesse Fidélité et Expression du résultat
Mesures de tendance centrale et mesures de dispersion.
Étude des émissions diffuses avec l’expérience H.E.S.S. Tania Garrigoux.
Paramètres S Rappels de théorie des circuits
Régression linéaire (STT-2400) Section 3 Préliminaires, Partie II, La loi multinormale Version: 8 février 2007.
Profile Likelihood Une petite revue succincte. Petite citation a méditer… « a probability of 1 in is almost impossible to estimate » R. P.
Développement d’application avec base de données Semaine 2: Requête avec l’Entity Data Model Automne 2015.
Chapitre 5 Interprétation des données d’enquête 1.
Section 4 : Analyse descriptive. En 1901, Karl Pearson publie son papier sur l’Analyse en Composante Principale dans : “On lines and planes of closest.
Les Modalités d’Evaluation en Bac Pro tertiaire..
Faculté de Médecine de Marseille, Université de la Méditerranée Laboratoire d’Enseignement et de Recherche sur le Traitement.
Chapitre 4: Variation dans le temps  Les données : audience totale en milliers (tableau 4.1, p. 47, extrait) o Origine : enquête sur les habitudes d’écoute.
Transcription de la présentation:

Séance 3 Retour aux sources (Back to basics)

Les modélisations structurelles par la covariance (Covariance Based Structure Analysis)

Son papier de synthèse - 1973 LISREL La méthode LISREL Karl Jöreskog 1934 - present Son papier de synthèse - 1973

Exemple : Modèle à trois construits

Les asterisks indiquent si les liens sont significatifs Ce sont les poids des regressions (regression weights) non-standardisés Estimates Les asterisks indiquent si les liens sont significatifs S’il y a *** => P < .005 Acceptable si => P < .05

Ce sont les loadings standardisés La première chose à voir : les loadings. Ils peuvent être utilisés pour examiner la validité convergente des construits. - Il faut que  > .5 - Si  > .7 (préférable) Pour la validité convergente, il faut également vérifier les deux indices suivants : Average Variance Extracted (AVE) pour chaque construit. Construct Reliabilities (CR). L’ AVE et la CR ane sont calculés par AMOS. Il faut les calculer.

La fidélité ou (fiabilité) 2 manières pour la calculer qui reviennent au même : Le Rhô de Jöreskog (calculé sur les données non standardisées) Le CR (calculé sur les données standardisées) Straub, D., Boudreau, M-C, Gefen, D. (2004), “Validation Guidelines For IS Positivist Research”, Communications of the Association for Information Systems, (13), pp. 380-427 Straub, D. (1989), Validating instruments in MIS Research, MIS Quarterly, 13, 2, pp. 147-169.

le Rhô de Jöreskog : mesure de la fidélité dans l’AFConfirmatoire Sa valeur plancher communément admise pour attester de la fidélité est de 0,7 ou 0,8. 7

Fidélité & méthodes de seconde génération (le Rho) X Phi1 Phi2 Phi3 Lambda 1 Lambda n Delta : erreur de mesure des variables X X : indicateur observé de la variable latente Lambda : coefficient liant la variable latente à ses indicateurs Ksi : Variable latente explicative Phi : Covariance entre variables latentes 1

Validation de l’uni-dimensionalité d’un bloc Indice de concordance (Composite Reliability) De et Var() = 1, on déduit : Pour interpréter cet indice, il faut supposer tous les j > 0. Règle : IC > .70

Exemple de calcul des AVE et des CR δi Les Loadings (λi)2 =.59*.59 La somme On divise la somme sur le nombre d’items 2.264/4 = 56.61 Les Loadings au carré Pour calculer le delta, il faut faire (1 - item reliability), Le delta représente l’erreur de variance standardisée

La somme des erreur de variance standardisée (delta) Formule de La CR La somme des carrés des loadings, La somme des erreur de variance standardisée (delta) CR (OC) = (.59 +.87 +.67 +.84)2 / [(.59 +.87 +.67 +.84)2 + (.65 +.24 +.55 +.29)] = 0.84 CR (EP) = (.69 +.81 +.77 +.82)2 / [(.69 +.82 +.84 +.82)2 + (.52 +.34 +.40 +.32)] = 0.86 CR (AC) = (.82 +.82 +.84 +.82)2 / [(.82 +.82 +.84 +.82)2 + (.32 +.33 +.30 +.33)] = 0.89 Construct reliability est calculée en divisant la somme des loadings (λi) au carré de chaque construit, par cette même somme à laquelle on ajoute la somme des erreurs de variance (δi). CR > .7 Bonne reliability. .6 < CR < .7 Peut être acceptable si les autres indicateurs du modele sont bons. CR élévé = la validité interne du construit est bonne.

La validité de trait Il s’agit de savoir si les indicateurs construits sont une bonne représentation du phénomène à étudier. Deux formes nous permettent d’en vérifier la pertinence : Validité convergente : il faut vérifier que les indicateurs qui sont supposés mesurer le même phénomène convergent Validité discriminante : les indicateurs qui sont supposés mesurer des phénomènes différents doivent converger faiblement 12

La validité convergente Deux conditions sont nécessaires à son obtention (Roussel et alii, 2002, p. 79) Que les corrélations variables/facteurs (lambdas) soient significativement non nulles (t-test – valeur de t>1,96). Que la variance du construit soit davantage expliquée par les items qui le mesurent que par l’erreur. Cette condition fait référence à la variance moyenne extraite ou rhô de validité convergente qui doit être supérieur à 0,5 X Lambda 1 Lambda n

Les Rhô(s) de validité convergente (!) X Lambda 1 Lambda n Calculer à partir des coefficients standardisés Cette quantité représente la proportion de variance du résidu de l’indicateur. 14

Possibilité d’un autre calcul AVE (Average Variance Explained) De et Var() = 1, on déduit : Règle : AVE > 50%

La validité discriminante On va s’assurer que la mesure d’une variable latente est bien spécifique. Les rhô de validité convergente doivent être supérieurs au Phi2 : la variance partagée entre un construit et ses mesures doit être > à la variance partagée entre les construits Exemple : 16

La validité prédictive (ou validité nomologique) On s’assure que les variables latentes aient la capacité à expliquer un phénomène déjà étudié. Il faut donc savoir manier des modèles d’équations structurelles. 17

Exemple de calcul des AVE et des CR δi Les Loadings (λi)2 =.59*.59 La somme On divise la somme sur le nombre d’items 2.264/4 = 56.61 Les Loadings au carré Pour calculer le delta, il faut faire (1 - item reliability), Le delta représente l’erreur de variance standardisée

Formule de l’AVE Calculate de l’Average Variance Extracted (AVE): OC Construct = .349 + .759 + .448 + .709 = 2.264 / 4 = .5661 EP Construct = .477 + .658 + .596 + .679 = 2.410 / 4 = .6025 AC Construct = .676 + .674 + .699 + .666 = 2.714 / 4 = .6786 AVE > 0.5 => Bon résultat. Le construit est valide AVE < 0.5 => Dans chaque item, il reste plus d’erreur que de variance expliquée On doit calculer un AVE par construit latent

Analyse du modèle structurel

On va tester les effets supposés entre des construits latents but de valider ou falsifier des hypothèses soutenues par un modèle d’analyse

RAPPEL de la Méthode d’estimation H0: les données estimées à partir du modèle théorique s’ajustent bien aux données empiriques Confrontation de 2 types de matrices (soit de corrélations, soit de covariances) Les Matrices « S » des covariances des variables observées Les matrices « » des covariances estimées Méthodes d’estimations: maximum de vraisemblance Plus les données de ces matrices convergent, meilleur est l’ajustement du modèle théorique aux données  H0 acceptée Calcul à partir des données empiriques qu’on a collectées

Quelle méthode d’estimation? Souvent maximum de vraisemblance (maximum likelihood) car méthode souvent proposée par défaut dans les logiciels Mais nécessite : Multinormalité des variables (skewness<3; kurtosis<8; coef de Mardia < ou = à 3) Echantillon de taille moyenne (autour de 200 individus)

Si distribution pas normale D’où autres méthodes d’estimation possibles: On va piano du milieu et analysis properties GLS (moindres carrés généralisés) (Pble si modèle complexe) ALS, AGLS, ARLS (asymptotically distribution free) ADF, WLS (ULS: unweighted least squre) ELS, EGLS, ERLS (pour une distribution elliptique) Souvent besoin d’échantillons de grande taille

Interprétations des résultats 1/ Analyser l’ajustement global Différents indices d’ajustement sont obtenus Indices absolus : mesurent l’ajustement du modèle global (GFI – AGFI > 0.9 – RMSEA< 0.05) Indices incrémentaux : comparent plusieurs modèles (modèle testé au modèle nul) (NFI – CFI>0.9) Indices de parcimonie : dans quelle mesure le modèle présente un bon ajustement pour chaque coefficient estimé (Khi/d.d.l, ECVI>0.9)

CMIN/DF – La valeur doit être en dessous de 2 CMIN/DF – La valeur doit être en dessous de 2. Mais parfois on accepte une valeur entre 2 et 5 (en France jusqu’à 7 mais pas aux EU) Chi-square (X2) = likelihood ratio chi-square Le GFI doit être > .90 GFI = Goodness of Fit Index Le AGFI > .90 Model Fit AGFI = Adjusted Goodness of Fit Index PGFI = Parsimonious Goodness of Fit Index NFI = Normed Fit Index Le NFI, RFI, IFI, TLI, CFI doivent être > .90 TLI = Tucker- Lewis CFI = Comparative Fit Index PNFI = Parsimonious Normed Fit Index

Validation du modèle à l’aide du RMSEA (Root Mean Square Error of Approximation) Le RMSEA mesure la « distance » entre la matrice des covariances calculées C0 à l’aide du modèle M et la matrice des covariances sur la population  : Ne dépend pas de n. Corrigé pour le nombre de paramètres. où FMIN0 = Trace(C0-1) - q + Ln(det C0) - Ln(det  ) Le modèle est accepté si le RMSEA estimé est inférieur à 0.05 ou, à la limite, à 0.08.

RMSEA = Root Mean Squared Error of Approximation Le modèle est accepté si le RMSEA estimé est < 0.05 ou, à la limite, à 0.08 RMSEA – represents the degree to which lack of fit is due to misspecification of the model tested versus being due to sampling error.

2/ Analyser l’ajustement du modèle de mesure (fiabilité, validités) 2/ Analyser l’ajustement structurel - vérifier que les relations entre construits latents sont bien différentes de zéro (valeur t supérieure à 1.96) Cf tableau regression weight (non standardisé) On regarde cr et p

Ce sont les poids des regressions (regression weights) non-standardisés Estimates CR doit être sup à 1.96 Les asterisks indiquent si les liens sont significatifs S’il y a *** => P < .005 Acceptable si => P < .05.

Examiner les coefficients de régression (varient entre -1 et 1)  similaires aux coefficient bêtas de la régression  tableau standardized regression weights Regarder le pourcentage de variance expliquée par les relations linéaires pour chaque variable exogène (équivalent au R² de la régression)  tableau squared multiple correlations

Ce sont les loadings standardisés La première chose à voir : les loadings. Ils peuvent être utilisés pour examiner la validité convergente des construits. - Il faut que  > .5 - Si  > .7 (préférable)

Structural Equation Modeling Modèle de mesure (modèle externe) – Variables Reflexives Pour les construits endogènes Pour le construit exogène

Comment fonctionne AMOS ? B p q p q B A C * = n p n

La modélisation structurelle par les variances ou l’approche PLS (partial least squares path modeling)

La modélisation structurelle par les variances ou l’approche PLS (partial least squares path modeling)

Acceptation du ebanking

Echelle de Likert ou sémantique 7-points Questionnaire Structure de croyance Facteurs de base Questions Echelle de Likert ou sémantique 7-points Croyances Attitudinales Résultats utilitaires Q1. Je pense que l’e-banking est  : CAU1 Q2. Apprendre à utiliser l’e-banking est avantageux pour moi. CAU2 Q3. Je trouve que l’utilisation du e-banking est très convenable. CAU3 Résultats hédonistes   Q4.J’ (…) utiliser le e-banking CAH1 Q5. Utiliser le e-banking est très agréable. CAH2 Q6. Je crois que je peux avoir une expérience positive en utilisant l’e-banking. CAH3 Croyances Normatives Influence sociale perçus Q13. Je pense que les gens qui me sont importants veulent que j’utilise l’e-banking   CNS1 Croyance de contrôle Auto-efficacité et e-compétence Q17. Je me sens à l’aise en utilisant l’e-banking CCA1 Q18. Si je voulais, Je pourrais aisément utiliser l’e-banking tout seul CCA2 Q19. Je peux utiliser l’e-banking sans aucune aide. CCA3 Adoption/Reje t des e- services Adoption/Rejet du ebanking Q20. J’utilise régulièrement l’e-banking CCR1 Q21. J’ai l’intention d’utiliser l’e-banking CCI1 Q22. Je vais probablement utiliser l’e-banking prochainement. CCP1

Validation de l’uni-dimensionalité d’un bloc (Fiabilité de l’outil de mesure) AVE (Average Variance Explained) De et Var() = 1, on déduit : Règle : AVE > 50%

Validation de l’uni-dimensionalité d’un bloc 2. Indice de concordance (Composite Reliability) De et Var() = 1, on déduit : Pour interpréter cet indice, il faut supposer tous les j > 0. Règle : IC > .70

Validation de l’uni-dimensionalité d’un bloc 3. Validité convergente La corrélation entre chaque variable manifeste et sa variable latente doit être supérieure à 0.7 en valeur absolue

Validité discriminante 1) Une variable manifeste doit être plus corrélée à sa propre variable latente qu’aux autres variables latentes 2) Chaque variable latente doit mieux expliquer ses propres variables manifestes que chaque autre variable latente :