ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES

Slides:



Advertisements
Présentations similaires
Intervalles de confiance
Advertisements

Introduction aux statistiques Intervalles de confiance
Comparaison d’une moyenne observée à une moyenne théorique
ANOVA à un facteur (Rehailia)
Risques d’erreur statistique et test statistique
Les tests d’hypothèses (II)
Les tests d’hypothèses (I)
TESTS RELATIFS AUX CARACTERES QUANTITATIFS
Inférence statistique
Comparaison de deux moyennes observées
Faculté de médecine de Nancy - SPI-EAO - Pr. F. KOHLER
Comparaison de deux pourcentages observés
Comparaison de plusieurs moyennes observées
Tests non paramétriques
Tests de comparaison de pourcentages
Nombre de sujets nécessaires en recherche clinique
Tests non paramétriques de comparaison de moyennes
Les Tests dhypothèses. 1)Définition Un test cest une méthode qui permet de prendre une décision à partir des résultats dun échantillon.
Les tests d’hypothèses
Vérification des données
Tests de comparaison de moyennes
Tests de comparaison de moyennes
Méthodes de Biostatistique
Analyse de la variance : ANOVA à un facteur
Régression linéaire simple
Groupe 1: Classes de même intervalle
Corrélation et régression linéaire simple
1.Un rang de données multicolores 2. Deux permutations des n premiers entiers 3. b permutations des k premiers entiers 4. Choix de n points dans [0,1]
Le test t. Procédure de linférence statistique 1. Contexte théorique 2. Hypothèses 3. Seuil de signification et puissance 4. Taille de leffet 5. Collecte.
Le test t.
La puissance statistique
La puissance statistique
Université dOttawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :47 1 Concepts fondamentaux: statistiques et distributions.
Corrélation Principe fondamental d’une analyse de corrélation
Comparaison de deux échantillons
Objectifs du chapitre 8: Puissance statistique
Tests d’hypothèses.
Régression linéaire (STT-2400)
Régression linéaire multiple : hypothèses & interprétation. Partie 2.
Régression linéaire multiple : hypothèses & tests. Partie 3.
Méthodes de Biostatistique
Méthodes de Biostatistique
Méthodologie expérimentale : l’analyse des données
Chapitre 3 - Comparer plusieurs groupes
ESTIMATION 1. Principe 2. Estimateur 3. Distribution d’échantillonnage
Biostatistiques Quand on souhaite étudier une (ou des) caractéristique(s) sur un ensemble d’individus ou d’objets, il est difficile, voir impossible, d’observer.
BIO 4518: Biostatistiques appliquées Le 4 octobre 2005 Laboratoire 3 ANOVA à un critère de classification.
ANALYSE DE DONNEES TESTS D’ASSOCIATION
STATISTIQUES DESCRIPTIVES
Micro-intro aux stats.
TESTS NON PARAMETRIQUES
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :35 1 Comparaisons multiples Ce qu’elles sont.
Concepts fondamentaux: statistiques et distributions
Comparaison de deux échantillons
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :52 1 Comparaisons multiples Ce qu’elles sont.
Tests d’ajustement à une distribution théorique
L’erreur standard et les principes fondamentaux du test de t
Méthodes de Biostatistique Chapitre 9 Tests Nonparamétriques.
ATELIERS STATISTIQUES
Révision des concepts fondamentaux
Quelques commentaires sur les tests statistiques
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :47 1 Comparaison de deux échantillons Principes.
University of Ottawa - Bio 4118 – Applied Biostatistics © Antoine Morin and Scott Findlay 13/08/2015 6:59 PM Bootstrap et permutations.
Chapitre 4 Concepts fondamentaux Les composantes d’un test statistique Les hypothèses nulles en statistiques Le sens de p Inférence: comment traduire p.
Comparaison de plusieurs moyennes observées
Tests relatifs aux variables qualitatives: Tests du Chi-deux.
Académie européenne des patients sur l'innovation thérapeutique Rôle et notions élémentaires des statistiques dans les essais cliniques.
Introduction aux statistiques Intervalles de confiance
Biostatistique pour le troisième cycle P. Leroy, F. Farnir 2013.
23/05/2016 Déterminer la taille des échantillons notion sous-jacente : puissance d'un test Claire Chabanet fonction F4, étendre l'écran configurer le diaporama,
Transcription de la présentation:

ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES Dois-je procéder par des méthodes paramétriques ou nonparamétriques? Fmax test (Variance ratio test) Test de Bartlett (sévèrement affecté par la non normalité des données) Vérifier la normalité des données: Difficile à faire si le n est petit Test du χ2 Test de Kolmogorov-Smirnoff Vérifier l’homogénéité des variances: Facile et rapide Variances homogènes  Méthodes paramétriques Variances non homogènes  Méthodes nonparamétriques Comparaison de 2 moyennes (ou d’un résultat et une valeur théorique) Comparaison de 3 moyennes ou plus Test de t de Student Test de Mann-Whitney (Wilcoxon) ANOVA Tests de comparaisons multiples: Test de Tukey Test Student-Neuman-Keuls Contraste de Scheffé Test de Dunnett (Comparaisons à un échantillon contrôle) Test de Kruskal-Wallis + *IMPORTANT* Appliquer une correction de Bonferroni si un test est utilisé maintes fois dans un même contexte. **IMPORTANT** Les tests statistiques devraient toujours être déterminés avant d’entreprendre l’échantillonnage.

Méthodes paramétriques: Font appel à des paramètres de population tels la moyenne μ et la variance σ2. Conditions d’application des méthodes paramétriques: Les données ont été échantillonnées aléatoirement; Les échantillons proviennent de populations ayant une distribution normale; Les variances des différents échantillons sont égales (homogénéité des variances). *Toutefois, les méthodes paramétriques sont suffisamment robustes pour répondre à des déviations considérables de leurs conditions d’application, surtout si la taille des échantillons n est égale ou presque égale (particulièrement vrai pour les tests bilatéraux). **Si les populations sont fortement asymétriques, les tests unilatéraux paramétriques sont à déconseiller. ***Si la condition de normalité des données est fortement violée, un seuil de signification (α) inférieur à 0.01 n’est pas fiable. ****Plus le n est grand, plus le test est robuste (il l’est d’autant plus que les n sont égaux). Si les n ne sont pas égaux, la probabilité de commettre une erreur de type I est inférieure à α si les plus grandes variances sont associées au plus grands échantillons, et supérieure à α si les plus petits échantillons possèdent les plus grandes variances. Méthodes nonparamétriques: Sont indépendantes des paramètres de population (Distribution-free methods). Ces méthodes s’avèrent plus puissantes (1-β) que les méthodes paramétriques lorsque celles-ci dérogent de leurs conditions d’application. Lorsque les deux types de méthodes peuvent être appliquées, la méthode paramétrique est toujours plus puissante que sa méthode nonparamétrique équivalente, et donc préférable. *Erreur de type I: Probabilité de rejeter l’hypothèse nulle alors que celle-ci est vraie. **Erreur de type II: Probabilité d’accepter l’hypothèse nulle alors que celle-ci est fausse.

Il y a moyen d’évaluer le n minimum requis pour observer une différence minimale détectable (δ), compte tenu de la puissance (1-β) et du seuil de signification (α) désirés. Plus les n sont grands, moins grande est la probabilité de commettre une erreur de type II. Il est souvent avantageux d’effectuer des pré-tests afin de déterminer le n minimal requis pour obtenir une différence significative. La puissance (φ) d’un test effectué peut être déterminée a posteriori (i.e. la probabilité d’avoir commis une erreur de type II). Lorsque l’on compare plus de deux moyennes, toujours procéder par ANOVA plutôt que par des tests de t comparant les moyennes deux à deux. 3 moyennes comparées 2 à 2  13% de probabilité de commettre une erreur de type I entre les moyennes extrèmes… 10 moyennes comparées 2 à 2  63% de probabilité de commettre une erreur de type I entre les moyennes extrèmes… 20 moyennes comparées 2 à 2  92% de probabilité de commettre une erreur de type I entre les moyennes extrèmes… E.g. Au seuil de signification α = 0.05, Il est parfois avantageux de transformer ses valeurs (e.g. log xi + 1) préalablement à l’application d’un test paramétrique si l’on sait, ou que l’on suspecte, que l’on ne satisfait pas à l’exigence de normalité des données. Ceci permet de se rapprocher de la normalité. Certains types de données ne suivent pas une distribution normale [e.g. événements aléatoires (Poisson), données nominales (binômiale)]. Excellentes références biostatistiques: Zar, J. H., Biostatistical Analyses; Sokal, R. R. & Rohlf, F. J., Biometry; Conover, W. J., Practical Nonparametric Statistics.