La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES Dois-je procéder par des méthodes paramétriques ou nonparamétriques? F max test (Variance ratio.

Présentations similaires


Présentation au sujet: "ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES Dois-je procéder par des méthodes paramétriques ou nonparamétriques? F max test (Variance ratio."— Transcription de la présentation:

1 ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES Dois-je procéder par des méthodes paramétriques ou nonparamétriques? F max test (Variance ratio test) Test de Bartlett (sévèrement affecté par la non normalité des données) F max test (Variance ratio test) Test de Bartlett (sévèrement affecté par la non normalité des données) Vérifier la normalité des données: Difficile à faire si le n est petit Test du χ 2 Test de Kolmogorov-Smirnoff Vérifier la normalité des données: Difficile à faire si le n est petit Test du χ 2 Test de Kolmogorov-Smirnoff Vérifier l’homogénéité des variances: Facile et rapide Variances homogènes  Méthodes paramétriques Variances non homogènes  Méthodes nonparamétriques Comparaison de 2 moyennes (ou d’un résultat et une valeur théorique) Comparaison de 2 moyennes (ou d’un résultat et une valeur théorique) Comparaison de 3 moyennes ou plus Comparaison de 2 moyennes (ou d’un résultat et une valeur théorique) Comparaison de 2 moyennes (ou d’un résultat et une valeur théorique) Comparaison de 3 moyennes ou plus Test de t de Student Test de Mann-Whitney (Wilcoxon) ANOVA Tests de comparaisons multiples: Test de Tukey Test Student-Neuman-Keuls Contraste de Scheffé Test de Dunnett (Comparaisons à un échantillon contrôle) Tests de comparaisons multiples: Test de Tukey Test Student-Neuman-Keuls Contraste de Scheffé Test de Dunnett (Comparaisons à un échantillon contrôle) Test de Kruskal-Wallis Tests de comparaisons multiples: Test de Tukey Test Student-Neuman-Keuls Contraste de Scheffé Test de Dunnett (Comparaisons à un échantillon contrôle) Tests de comparaisons multiples: Test de Tukey Test Student-Neuman-Keuls Contraste de Scheffé Test de Dunnett (Comparaisons à un échantillon contrôle) + + *IMPORTANT* Appliquer une correction de Bonferroni si un test est utilisé maintes fois dans un même contexte. **IMPORTANT** Les tests statistiques devraient toujours être déterminés avant d’entreprendre l’échantillonnage.

2 Méthodes paramétriques: Font appel à des paramètres de population tels la moyenne μ et la variance σ 2. Méthodes nonparamétriques: Sont indépendantes des paramètres de population (Distribution-free methods). Conditions d’application des méthodes paramétriques: Les données ont été échantillonnées aléatoirement; Les échantillons proviennent de populations ayant une distribution normale; Les variances des différents échantillons sont égales (homogénéité des variances). *Toutefois, les méthodes paramétriques sont suffisamment robustes pour répondre à des déviations considérables de leurs conditions d’application, surtout si la taille des échantillons n est égale ou presque égale (particulièrement vrai pour les tests bilatéraux). *Toutefois, les méthodes paramétriques sont suffisamment robustes pour répondre à des déviations considérables de leurs conditions d’application, surtout si la taille des échantillons n est égale ou presque égale (particulièrement vrai pour les tests bilatéraux). **Si les populations sont fortement asymétriques, les tests unilatéraux paramétriques sont à déconseiller. ***Si la condition de normalité des données est fortement violée, un seuil de signification (α) inférieur à 0.01 n’est pas fiable. ****Plus le n est grand, plus le test est robuste (il l’est d’autant plus que les n sont égaux). Si les n ne sont pas égaux, la probabilité de commettre une erreur de type I est inférieure à α si les plus grandes variances sont associées au plus grands échantillons, et supérieure à α si les plus petits échantillons possèdent les plus grandes variances. ****Plus le n est grand, plus le test est robuste (il l’est d’autant plus que les n sont égaux). Si les n ne sont pas égaux, la probabilité de commettre une erreur de type I est inférieure à α si les plus grandes variances sont associées au plus grands échantillons, et supérieure à α si les plus petits échantillons possèdent les plus grandes variances. Ces méthodes s’avèrent plus puissantes (1-β) que les méthodes paramétriques lorsque celles-ci dérogent de leurs conditions d’application. Lorsque les deux types de méthodes peuvent être appliquées, la méthode paramétrique est toujours plus puissante que sa méthode nonparamétrique équivalente, et donc préférable. Lorsque les deux types de méthodes peuvent être appliquées, la méthode paramétrique est toujours plus puissante que sa méthode nonparamétrique équivalente, et donc préférable. *Erreur de type I: Probabilité de rejeter l’hypothèse nulle alors que celle-ci est vraie. **Erreur de type II: Probabilité d’accepter l’hypothèse nulle alors que celle-ci est fausse.

3 Il y a moyen d’évaluer le n minimum requis pour observer une différence minimale détectable (δ), compte tenu de la puissance (1-β) et du seuil de signification (α) désirés. Il y a moyen d’évaluer le n minimum requis pour observer une différence minimale détectable (δ), compte tenu de la puissance (1-β) et du seuil de signification (α) désirés. Plus les n sont grands, moins grande est la probabilité de commettre une erreur de type II. Il est souvent avantageux d’effectuer des pré-tests afin de déterminer le n minimal requis pour obtenir une différence significative. La puissance (φ) d’un test effectué peut être déterminée a posteriori (i.e. la probabilité d’avoir commis une erreur de type II). Lorsque l’on compare plus de deux moyennes, toujours procéder par ANOVA plutôt que par des tests de t comparant les moyennes deux à deux. Lorsque l’on compare plus de deux moyennes, toujours procéder par ANOVA plutôt que par des tests de t comparant les moyennes deux à deux. 3 moyennes comparées 2 à 2  13% de probabilité de commettre une erreur de type I entre les moyennes extrèmes… 10 moyennes comparées 2 à 2  63% de probabilité de commettre une erreur de type I entre les moyennes extrèmes… 20 moyennes comparées 2 à 2  92% de probabilité de commettre une erreur de type I entre les moyennes extrèmes… E.g. Au seuil de signification α = 0.05, Il est parfois avantageux de transformer ses valeurs (e.g. log x i + 1) préalablement à l’application d’un test paramétrique si l’on sait, ou que l’on suspecte, que l’on ne satisfait pas à l’exigence de normalité des données. Ceci permet de se rapprocher de la normalité. Il est parfois avantageux de transformer ses valeurs (e.g. log x i + 1) préalablement à l’application d’un test paramétrique si l’on sait, ou que l’on suspecte, que l’on ne satisfait pas à l’exigence de normalité des données. Ceci permet de se rapprocher de la normalité. Certains types de données ne suivent pas une distribution normale [e.g. événements aléatoires (Poisson), données nominales (binômiale)]. Excellentes références biostatistiques: Zar, J. H., Biostatistical Analyses; Sokal, R. R. & Rohlf, F. J., Biometry; Conover, W. J., Practical Nonparametric Statistics. Excellentes références biostatistiques: Zar, J. H., Biostatistical Analyses; Sokal, R. R. & Rohlf, F. J., Biometry; Conover, W. J., Practical Nonparametric Statistics.


Télécharger ppt "ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES Dois-je procéder par des méthodes paramétriques ou nonparamétriques? F max test (Variance ratio."

Présentations similaires


Annonces Google