Comparaisons multiples

Slides:



Advertisements
Présentations similaires
Introduction aux statistiques Intervalles de confiance
Advertisements

A. Cornuéjols IAA (basé sur Rob Schapires IJCAI99 talk) Combiner des apprenants: le boosting.
Risques d’erreur statistique et test statistique
RECONNAISSANCE DE FORMES
Test statistique : principe
Les tests d’hypothèses (I)
ACTIVITES Le calcul littéral (3).
Comparaison de deux pourcentages observés
Les TESTS STATISTIQUES
Nombre de sujets nécessaires en recherche clinique
Les TESTS STATISTIQUES
A Pyramid Approach to Subpixel Registration Based on Intensity
Dr DEVILLE Emmanuelle J D V 12/07/2006
1 Analyse de la variance multivariée Michel Tenenhaus.
07/24/09 1.
Régression linéaire (STT-2400) Section 3 Tests dhypothèses et lhypothèse linéaire générale Version: 26 janvier 2007.
DEA instrumentation et commande
Plans à groupes indépendants: organisation
Statistiques Séance 9 – 6 décembre 2005 N. Yamaguchi.
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
Cours de physique générale I Ph 11
L’inférence statistique
Cours Corporate finance Eléments de théorie du portefeuille Le Medaf
Nombre de sujets nécessaires en recherche clinique
Exemples HULL CHAPITRE 8 1HULL_CHAPITRE 8. CALCUL DE LA VaR 2HULL_CHAPITRE 8.
Régression linéaire simple
Objectifs du chapitre 12: Interprétation des résultats
Problème Autre formulation :
Les Pourcentages.
Réseaux de neurones.
Équations Différentielles
Courbes de Bézier.
La corrélation et la régression
Le test t.
La puissance statistique
La puissance statistique
La corrélation et la régression
Université dOttawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :47 1 Concepts fondamentaux: statistiques et distributions.
Les modèles linéaires (Generalized Linear Models, GLM)
Corrélation Principe fondamental d’une analyse de corrélation
Comparaison de deux échantillons
ANOVA à critères multiples
Comparaisons multiples
Analyse factorielle de variance: Principes d’expérimentation
Objectifs du chapitre sur les distributions déchantillonnage Comprendre la relation entre les distributions déchantillonnage et les tests dinférence statistique.
Objectifs du chapitre 8: Puissance statistique
Inéquations du premier degré à une inconnue
La régression multiple
Tests d’hypothèses.
ASI 3 Méthodes numériques pour l’ingénieur
ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES
Apprentissage avec un réseau de neurones artificiels
chapitre -1- OPERATIONS [B] REGLES DE PRIORITE (f n°103) lundi 15 septembre 2014  rappels de 6°  du nouveau en 5°  applications  exercices  Page.
Comment construire un graphique ?
Probabilités et Statistiques Année 2009/2010
Seconde partie - cours n°3 Théorie des tests
Rappels de statistiques descriptives
Précision d'une mesure et chiffres significatifs
Howell Chap. 11: ANOVA. Du monde connu au monde inconnu Du test t à l’analyse de varianceDu test t à l’analyse de variance Trouvez des nouveaux noms pour.
Présentation du marché obligataire
Séance 8 30 novembre 2005 N. Yamaguchi
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :35 1 Comparaisons multiples Ce qu’elles sont.
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :52 1 Comparaisons multiples Ce qu’elles sont.
ATELIERS STATISTIQUES
Quelques commentaires sur les tests statistiques
Analyse des données. Plan Lien entre les statistiques et l’analyse des données Propagation des erreurs Ajustement de fonctions.
Chapitre 4 Concepts fondamentaux Les composantes d’un test statistique Les hypothèses nulles en statistiques Le sens de p Inférence: comment traduire p.
Académie européenne des patients sur l'innovation thérapeutique Rôle et notions élémentaires des statistiques dans les essais cliniques.
Introduction aux statistiques Intervalles de confiance
Chapitre 6 Les tests d ’ hypoth è se 1 – Comparer des moyennes ou des proportions.
Transcription de la présentation:

Comparaisons multiples Comprendre pourquoi il faut des procédures spéciales pour faire des comparaisons multiples quel danger y-a-t-il à faire des comparaisons multiples comment s’en sortir comprendre les principes de ces procédures savoir appliquer les différents tests de comparaisons multiples

S Addition Rimes Adjectifs Images Intentionel 9 7 11 12 10 8 13 19 6 16 14 5 4 23 3 15 S 70 69 110 134 120 M 7.00 6.90 11.00 13.40 12.00 DS 1.83 2.13 2.49 4.50 3.74 données de la page 341, explications en pages 340-341

Un F significatif est équivoque Il y a autant de comparaisons à faire que Tester ces comparaisons fait augmenter la probabilité de commettre une erreur sur l’ensemble des comparaisons le seuil de .05 équivaut à 1/20, mais ne vaut que pour 1 comparaison Dans l’exemple d’Eysenck comparaisons de 2 moyennes à la fois parmi 5 C5/2 = 5! / 2! (5-2)! = 5! / 2! (3!) = (5x4) / 2 = 10 il y aurait 10 comparaison 2 x 2 à faire.

Rappel de notions du chapitre 4

Que font les tests d’inférence statistique? (1) paramétrique le paramètre est-il fréquent ou rare selon la distribution théorique? <= fréquent=> rare

Les erreurs d’inférence État de la nature Décision du chercheur ou de la chercheure puissance statistique

La probabilité de faire l’erreur de type I peut s’interpréter comme le nombre de conclusions erronnées produites par 100 répétitions de la même expérience.

Les décisions prises à partir de tests d’inférence sont des décisions basées sur des probabilités Probabilité de faire une erreur de type I; en recherche, les conclusions sont incertaines

Fin du rappel

Problème des comparaisons multiples Chaque comparaison a son taux d’erreur (EC) Sur l’ensemble des comparaisons(EE), le taux d’erreur augmente: Cette évolution est plus lente que la simple addition des taux d’erreur (Loi d’inégalité de Bonferroni)

La solution de Bonferroni au problème des comparaisons multiples Il suffit de diviser le taux d’erreur choisi pour l’ensemble par le nombre de comparaisons et donc d’adopter ce taux (divisé) pour chaque comparaison

La solution de Bonferroni au problème des comparaisons multiples Solution très conservatrice pour a qui réduit la puissance statistique celle-ci dépend taille de l’échantillon (n) taille de l’effet a <= fréquent=> rare

Deux autres notions à propos des comparaisons multiples Comparaisons prévues: a priori ou non a posteori + nombreuses Comparaisons directes de moyennes comme le test t ou par combinaison linéaire de moyennes

Particularité des combinaisons linéaires Il faut savoir choisir les coefficients deux avantages peuvent se calculer directement sous forme de SC peuvent être formulés de façon orthogonale seulement dans ce cas

Procédure de comparaisons multiples a priori: le test t le test t standard le test t adapté à l’ANOVA dl = N1 + N2 – 2 dl = dl associé à CMerreur

Procédure de comparaisons multiples a priori: les combinaisons linéaires Rappel Chaque contraste peut être testé

Procédures de comparaisons multiples a priori: les procédures réduisant EE (1) Les test t et F sur les contrastes ne protègent pas contre l’élévation de l’erreur de type I Dunn-Bonferroni suggèrent une procédure pour obtenir cette protection t’

Procédures de comparaisons multiples a priori: les procédures réduisant EE (2) Des solutions à la procédure de Dunn-Bonferroni jugée trop conservatrice Sidak Holm Lazarlee & Mulaik ajuster progressivement selon l’ordre de grandeur des différences Shaffer ibid. mais exclut les résultats illogiques

Comparaisons multiples a priori: exemple de calculs (1) Gr. : 1. Addition 2. Rimes 3. Adjectifs 4. Images 5. Intentionel Moy 7.00 6.90 11.00 13.40 12.00 ÉT 1.83 2.13 2.49 4.50 3.74 H1: Intentionnel meilleur rappel que tous les autres groupes H2: Tous les autres groupes sont semblables

Comparaisons multiples a priori: exemple de calculs (2) Gr. : 1. Addition 2. Rimes 3. Adjectifs 4. Images 5. Intentionel Moy 7.00 6.90 11.00 13.40 12.00 ÉT 1.83 2.13 2.49 4.50 3.74

Comparaisons multiples a priori: exemples de calculs (3) Gr. : 1. Addition 2. Rimes 3. Adjectifs 4. Images 5. Intentionel Moy 7.00 6.90 11.00 13.40 12.00 ÉT 1.83 2.13 2.49 4.50 3.74

Comparaisons multiples a priori: exemple de calculs (3) Gr. : 1. Addition 2. Rimes 3. Adjectifs 4. Images 5. Intentionel Moy 7.00 6.90 11.00 13.40 12.00 ÉT 1.83 2.13 2.49 4.50 3.74 voir p. 348

Le tableau d’analyse de variance Source de variation SC dl CM F p Traitement 351,97 4 87,88 9,08 < ,05 Contraste 1 Contraste 2 Contraste 3 Contraste 4 erreur 435,30 45 9,67 Total 786,82 49

Procédures de comparaisons multiples a posteriori (1) LSD: la plus petite différence significative suppose l’hypothèse nulle tests t Test de Scheffé test selon contraste linéaire mais ajuste la valeur critique de F par k-1 c’est-à-dire

Procédures de comparaisons multiples a posteriori (2): procédures basées sur la loi de Student Statistique de Student avec r et dl(erreur) comme dl Test de Newman-Keuls mise en ordre des moyennes selon leur taille comparaison de toutes les paires de moyennes en ajustant la distance entre celles-ci

Procédures de comparaisons multiples a posteriori (3): procédures basées sur la loi de Student HSD: Test de la différence franchement significative de Tukey ibid. à Newman-Keuls mais n’utlise qu’une seule valeur critique, la plus grande Procédure de Ryan (REGWQ)

Procédures de comparaisons multiples a posteriori (4) Comparaisons à un groupe témoin: le test de Dunnett dl = dl associé à CMerreur Voir table de td

Comparaisons multiples a posteori: exemple de calculs (1) Gr. : 1. Addition 2. Rimes 3. Adjectifs 4. Images 5. Intentionel Moy 7.00 6.90 11.00 13.40 12.00 ÉT 1.83 2.13 2.49 4.50 3.74 a) Réordonner les moyennes

Comparaisons multiples a posteori: exemple de calculs (2) Gr. : 2. Ri-mes 1. Ad-dition 3. Ad-jectifs 5. Intentionel 4. Images Critère q Moy 2 Rim 1 Add 3 Adj 5 Int LSD: test t standard, utilise la table de t Procédure de Newman-Keuls critère différent selon le pas (distance entre les 2 moyennes à comparer) la valeur q est obtenue à partir de la table de q (Student) la valeur critère est égale au critère ajusté par le CMe (voir formule racine carrée de CMe divisé par n), ici 9.67 / 10, soit la racine carré de .967 0,983 4.04 x .983 = 3.97 2.83 x .983 = 2.78 Le test de Tukey n’utilise qu’une valeur de q et un seul critère. La procédure de Ryan et les autres consiste à calculer q, mais à ajuster le seuil alpha. La procédure de Dunnett utilise sa formule et sa table.

Comparaison des procédures

Un exemple de calcul I. Lettré, une chercheure de réputation internationale, présente des mots simples de type CVC (ex.: bol) en lettrage conventionnel ou en italique en des temps d’exposition courts et très courts. Elle enregistre le nombre d’erreurs d’identification de mots faites par les participants et participantes

Le tableau d’analyse de variance

Combinaisons a priori (1)

Combinaisons a priori (2)

Variations sur combinaison linéaires F ou t? Procédures ajustant l’EC Dunn-Bonferronni Sidak Holm Lazarlee & Mulaik ajustement progressif

Écart studentisé avec r et dl(erreur) comme dl Gr. : Ital. 90 Norm.45 Critère q Moy 5 7 9 13 Norm. 45

Variations sur les tests a posteori utilisant l’écart studentisé

Exemple A1B1 9 A1B2 7 A2B1 5 A2B2 13 Σa2 ΣaX (ΣaX)2 n(ΣaX)2

Gr. : A2B1 5 A1B2 7 A1B1 9 A2B2 13 Critère q A2B1 ---- A1B2 --- A1B1