Tests Statistiques de Base

Slides:



Advertisements
Présentations similaires
Mais vous comprenez qu’il s’agit d’une « tromperie ».
Advertisements

Intervalles de confiance
Introduction à l’analyse
ORTHOGRAM PM 3 ou 4 Ecrire: « a » ou « à » Référentiel page 6
Comparaison d’une moyenne observée à une moyenne théorique
ANOVA à un facteur (Rehailia)
Additions soustractions
Distance inter-locuteur
Risques d’erreur statistique et test statistique
Test statistique : principe
Les tests d’hypothèses (II)
Les tests d’hypothèses (I)
Les numéros 70 –
Les numéros
Inférence statistique
Comparaison de deux moyennes observées
Situation du problème :
Faculté de médecine de Nancy - SPI-EAO - Pr. F. KOHLER
Comparaison d'une distribution observée à une distribution théorique
Comparaison de deux pourcentages observés
Comparaison de plusieurs moyennes observées
Tests non paramétriques
Tests de comparaison de pourcentages
Nombre de sujets nécessaires en recherche clinique
1. Les caractéristiques de dispersion. 11. Utilité.
CONFORMITE d’une distribution expérimentale à une distribution théorique Professeur Pascale FRIANT-MICHEL > Faculté de Pharmacie
Les Tests dhypothèses. 1)Définition Un test cest une méthode qui permet de prendre une décision à partir des résultats dun échantillon.
Les tests d’hypothèses
LES TRIANGLES 1. Définitions 2. Constructions 3. Propriétés.
Estimation de la survie comparaison des courbes de survie FRT C3.
Données statistiques sur le droit doption au 31/01 8 février 2012.
Tests de comparaison de moyennes
Le soccer & les turbans Sondage mené par lAssociation détudes canadiennes 14 juin 2013.
Présentation générale
L’inférence statistique
Nombre de sujets nécessaires en recherche clinique
Problème Autre formulation :
Tableaux de distributions
LES NOMBRES PREMIERS ET COMPOSÉS
Les chiffres & les nombres
1.Un rang de données multicolores 2. Deux permutations des n premiers entiers 3. b permutations des k premiers entiers 4. Choix de n points dans [0,1]
RACINES CARREES Définition Développer avec la distributivité Produit 1
La statistique descriptive
Université dOttawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :47 1 Concepts fondamentaux: statistiques et distributions.
Les modèles linéaires (Generalized Linear Models, GLM)
Corrélation Principe fondamental d’une analyse de corrélation
Année universitaire Réalisé par: Dr. Aymen Ayari Cours Réseaux étendus LATRI 3 1.
Analyse factorielle de variance: Principes d’expérimentation
MAGIE Réalisé par Mons. RITTER J-P Le 24 octobre 2004.
1 INETOP
Aire d’une figure par encadrement
Écart moyen et écart type
Tests d’hypothèses.
P.A. MARQUES S.A.S Z.I. de la Moussière F DROUE Tél.: + 33 (0) Fax + 33 (0)
Les fondements constitutionnels
MAGIE Réalisé par Mons. RITTER J-P Le 24 octobre 2004.
ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES
1/65 微距摄影 美丽的微距摄影 Encore une belle leçon de Macrophotographies venant du Soleil Levant Louis.
Certains droits réservés pour plus d’infos, cliquer sur l’icône.
ANOVA : introduction.
Annexe Résultats provinciaux comparés à la moyenne canadienne
Rappels de statistiques descriptives
IMPRESS : y a-t-il un bénéfice à poursuivre le géfitinib en association à la chimiothérapie lors de la résistance acquise ? Essai randomisé Patients Cisplatine.
Tests d’hypothèse Tests de conformité Tests d’égalité
1.  On souhaite comparer deux traitements dans le cadre d’un essai randomisé sur les lombosciatiques :  corticoïdes par infiltrations  placebo  Critère.
Comparaison de plusieurs moyennes observées
Tests relatifs aux variables qualitatives: Tests du Chi-deux.
Tests relatifs aux variables qualitatives: Tests du Chi-deux.
Introduction aux statistiques Intervalles de confiance
Transcription de la présentation:

Tests Statistiques de Base

Test statistique : Test d’hypothèse Objectif : Aide à la décision en réduisant la part de subjectivité Teste des hypothèses sur quoi ? Sur les « rapports » entre des distributions de variables aléatoires (va) Qu’est-ce qu’une va ? Variable  mesure d’un phénomène Aléatoire  résultat soumis au hasard

Test statistique : Test d’hypothèse Objectif : Teste des hypothèses sur quoi ? Qu’est-ce qu’une variable aléatoire? Rappel sur les va (variable aléatoire) Va quantitatives Continues Discrètes Va qualitatives Ordonnées Non ordonnées Binaires

Test statistique : Test d’hypothèse Qu’est-ce qu’une va ? Rappel sur les va Mesures sur les va Position Va quantitatives : Moyenne Médiane Va qualitative : % & Mode Dispersion Va quantitative : Etendue Intervalle interquartile Ecart-type Coefficient de variation Va qualitative : Ecart-type

Test statistique : Test d’hypothèse Objectif : Aide à la décision en réduisant la part de subjectivité A différentes étapes de la démarche médicale Etape diagnostique : comparaison de deux examens pour choisir le plus utile (écho & TDM pour DG de méta hépatique) Etape thérapeutique : comparaison de deux traitements pour choisir le plus efficace (2 ATB pour stériliser les hémocultures) Etape pronostique : comparaison du rôle pronostique de la présence ou absence de métastase sur la survie Etape étiologique (connaissance ou prévention) : comparaison du tabagisme sur la survenue de KBP

Test statistique : Test d’hypothèse Objectif : Aide à la décision en réduisant la part de subjectivité Les bases Test statistique est utile qd il faut trancher entre 2 H Nulle H0  Statut quo Alternative H1  H à démontrer : nouveauté Ex1 : Compare deux anti ulcéreux A & B  PA & PB H0 PA = PB H1 PA  PB → Décision éventuelle de mettre ou pas B sur le marché

Test statistique : Test d’hypothèse Objectif : Aide à la décision en ↓ la part de subjectivité Les bases Test statistique est utile qd il faut trancher entre 2 H Nulle H0  Statut quo Alternative H1  H à démontrer : nouveauté Ex2 : La mortalité en USI est-elle liée à l’existence d’une IC pré existante (entre autres) H0 P(DC/IC) = P(DC/IC-) H1 P(DC/IC)  P(DC/IC-) → Connaissance & faut-il traiter + activement l’IC ?

Test statistique : Test d’hypothèse Les bases Test statistique est utile qd il faut trancher entre 2 H Nulle H0  Statut quo Alternative H1  H à démontrer : nouveauté  Choix : statut quo ou H1  Rejet ou pas de H0 ; ne démontre pas H0 Les risques α et β : risques d’erreur liés au choix d’H0 ou H1 α : Conclure à H1 si H0 vraie Conclusion à une différence qui  pas β : Conclure à H0 si H1 vraie Conclusion à une absence de  alors qu’elle  1- β : puissance de l’étude

Test statistique : Test d’hypothèse Vérité Vraie A  B A ≈ B Conclusion étude OK (VP) Erreur (FP) (FN) (VN)

Test statistique : Test d’hypothèse Vérité Vraie A  B A ≈ B Conclusion étude OK 1- : puissance Erreur de type I  : p Erreur de type II  : manque de puissance

Test statistique : Test d’hypothèse Les bases Les risques α et β : risques d’erreur liés au choix d’H0 ou H1 α : P(accepter H1 alors que H0 vraie (PA=PB) → Mise sur le marché d’un mdt non efficace β : P(accepter H0 alors que H1 vraie (PA PB) → Manquer un mdt efficace Pour H1  nbreuses situations ou PA - PB = Δ avec Δ  0 → β calculé pour une valeur Δ fixée α et β sont définis a priori Choix de H1, H0, α et β  le test statistique employé

Région de rejet Cette région est constituée par le sous-ensemble des valeurs de la distribution d'échantillonnage qui sont si extrêmes que lorsque H0 est vrai, la probabilité que l'échantillon observé ait une valeur parmi celles-ci est très faible (la probabilité est alpha). La position de cette région de rejet est affectée par la nature de H1, mais non pas sa taille : Dans un test unilatéral, la région de rejet est entièrement située à une des extrémités de la distribution d'échantillonnage, alors que dans un test bilatéral, cette région est située aux deux extrémités de la distribution. La taille de cette région de rejet est définie par alpha. Si alpha est = 0,05 (5%), la taille de la région de rejet correspond à 5% de l'espace inclus dans la courbe de la distribution d'échantillonnage. Cela signifie que dans d'une distribution suivant une loi normale, il n'y a que 5 chances sur 100 pour que l'écart entre la variable et sa valeur moyenne dépasse 2 fois l'écart-type.

Test statistique : Test d’hypothèse Les bases Les risques α et β : risques d’erreur liés au choix d’H0 ou H1 Choix de H1, H0, α et β  le test statistique employé Et que veut dire « p » ? « p » « petit p » « p-value » Probabilité d’observer par le biais du hasard des résultats au moins autant en désaccord avec H0 que ceux observés Probabilité de se tromper en rejetant H0 p est observé a posteriori

Test statistique : Test d’hypothèse Si le test statistique donne une valeur comprise dans la région de rejet, nous rejetons H0[on adopte alors H1]. Quand la probabilité associée à une valeur du test statistique est inférieure ou égale à la valeur alpha préalablement déterminée, nous concluons que H0 est faux. En effet, en rejetant l'hypothèse nulle au niveau 0,05, par exemple, nous avons 5 chances sur 100 seulement d'aboutir à une telle conclusion par le simple fait du hasard. Cette valeur est dite significative.

Table 1. Univariate analysis of suspected prognosis factors of TEN J Invest Dermatol 2000; 115 :149-153 Table 1. Univariate analysis of suspected prognosis factors of TEN Dead pts Survivors OR p value (n=44) (n=121) SAPS II Age (> 40 y old) 72.7 37.2 4.5 [2.1-9.7] <0.001 Heart Rate (120/min) 72.7 47.9 2.9 [1.4-6.2] <0.01 --- Glasgow score <14 2.3 3.3 0.7 [0.1-6.3] 0.73 Other variables Male gender 63.6 48.8 1.8 [0.9-3.8] 0.09

Test statistique : Test d’hypothèse Déséquilibre entre α et β : α : 5% β : souvent 10% (puissance de 90%) Etre plus exigent pour démontrer une nouvelle propriété que pour conserver un statut quo

Test statistique : Test d’hypothèse Les bases Pourquoi α = 5% ? Consensus historique publié en 1925 Mais varie selon la question clinique : - Grand essai sur un nouveau vaccin pour lequel on veut une preuve définitive de l’efficacité : p < 1% - Essai sur une maladie rare pour laquelle il n’existe pas de traitement avéré : p < 10% Et la pertinence clinique (+++) Dans les articles : valeur du p même si « NS » (+++)

Quels tests pour quelles hypothèses ? Choix du test dépend : Nature des variables : qualitative, quantitative, censurée De leur distribution normale ou non (ou effectifs des groupes) Du nombre d’échantillons que l’on veut comparer (2 ou plus) Du caractère apparié ou indépendant des échantillons

Avant de faire des tests paramétriques on doit : 1 ) S'assurer que la distribution de l'échantillon est compatible avec l'hypothèse de distribution gaussienne de la variable (test de normalité). Sinon on peut essayer de rendre cette distribution compatible avec une distribution gaussienne en réalisant une transformation, par exemple logarithmique ou faire un test non paramétrique. Pour vérifier que la distribution d’un échantillon suit une loi normale, il est possible d’utiliser, le test descriptif d’aplatissement et de symétrie donné par les logiciels (de kurtosis and skewness, en anglais).On considère que l’échantillon suit une loi normale à 95 % lorsque la valeur de son aplatissement est comprise entre -2 et +2 et que la valeur de son assymétrie est comprise entre -2 et +2. 2 )Vérifier l'homogénéité des variances de tous les échantillons ;Vérification de l'homogénéité des variances. Supposons que les données suivantes ont été obtenues dans une expérimentation portant sur deux traitements A et B : Pour tester l’hypothèse nulle H0: " Variance(A) = Variance(B) " contre l’hypothèse alternativeH1 " Variance(A) – Variance(B) ", on calcule les deux variances, puis on fait le rapport de la plus grande sur la plus petite. Ce rapport constitue le F de Snedecor. La valeur de F est comparée, dans une table de Snedecor, à une valeur théorique et doit lui être inférieure pour un seuil de risque choisi, pour conserver l'hypothèse d'homogénéité des variances. Pour K échantillons, test de Levene (quand on veut faire de l’ANOVA), ou Bartlett's test

Comparaison de moyennes 2 moyennes observées : Test t de Student v1 : v quantitative v2 : v qualitative à 2 classes Moyenne de v1 selon que v2 = x ou v2 = y Ex : Age moyen des ♂ diffère-t-il de celui des ♀? H0 : mH = mF H1 : mH  mF H : v1 ~ N dans chacun des deux groupes  Si n1 ≥ 30 et n2 ≥ 30 : OK  Sinon : tester la normalité dans chaque groupe Normales : OK Pas normales : test non paramétrique

Comparaison de moyennes 2 moyennes observées : Test t de Student Ex : Age moyen des ♂ diffère-t-il de celui des ♀? H : v1 ~ N dans chacun des deux groupes  Si n1 ≥ 30 et n2 ≥ 30 : OK  Sinon : tester la normalité dans chaque groupe Normales : OK Pas normales : test non paramétrique  2 tests  selon que les variances sont ou non égales

Comparaison de moyennes 2 moyennes observées : Test t de Student Ex : Age moyen des ♂ diffère-t-il de celui des ♀? BDD Stata

clim sexe dcd inscard age tpsec 0 1 1 0 35.87 1 1 0 0 61.84 1 0 0 0 0 45.67 1 1 1 1 0 51.8 1 0 1 1 0 65.89 1 1 1 0 0 51.21 1 0 0 1 0 76.18 1 1 1 0 1 79.39 3 1 1 1 0 58.78 1 0 1 1 77 2 0 1 1 0 41.22 1 1 0 1 0 71.9 3 0 0 0 0 77.85 1 1 0 1 1 71 3 0 0 1 0 78.91 1 1 1 1 1 48.18 1 1 0 0 0 35.75 1 1 0 0 0 80.63 1 0 1 1 1 83.59 3 0 1 1 0 63.46 3 1 0 1 0 55.89 3

Comparaison de moyennes 2 moyennes observées : Test t de Student Ex : Age moyen des ♂ diffère-t-il de celui des ♀?

Compare l'âge moyen des hommes et des femmes en supposant que les variances sont égales Two-sample t test with equal variances ------------------------------------------------------------------------------------------------------ Group | Obs Mean Std. Err. Std. Dev. [95% CI] ---------+-------------------------------------------------------------------------------------------- 0 | 154 72.1 1.0 12.4 70.1 74.1 1 | 191 63.5 .99 13.7 61.5 65.4 ---------+------------------------------------------------------------------------------------------ combined | 345 67.3 .75 13.8 65.9 68.8 ---------+------------------------------------------------------------------------------------------- diff | 8.6 1.4 5.8 11.5 ---------------------------------------------------------------------------------------------- Degrees of freedom: 343 Ho: mean(0) - mean(1) = diff = 0 Ha: diff < 0 Ha: diff != 0 Ha: diff > 0 t = 6.0561 t = 6.0561 t = 6.0561 P < t = 1.0000 P > |t| = 0.000 P > t = 0.000

. Vérifier que les variances sont égales ------------------------------------------------------------------------ Group | Obs Mean Std. Err. Std. Dev. [95% Conf. Interval] ---------+-------------------------------------------------------------- 0 | 154 72.1 1.0 12.4 70.1 74.1 1 | 191 63.5 .99 13.7 61.5 65.4 combined | 345 67.3 .75 13.8 65.9 68.8 Ho: sd(0) = sd(1) Ha: sd(0) < sd(1) Ha: sd(0) != sd(1) Ha: sd(0) > sd(1) P < F_obs = 0.1011 P < F_L + P > F_U = 0.1986 P > F_obs = 0.8989

Comparaison de deux moyennes dont les variances ne sont pas égales Two-sample t test with unequal variances --------------------------------------------------------------------------------------- Group | Obs Mean Std. Dev. [95% Conf. Interval] ---------+----------------------------------------------------------------------------- 0 | 154 72.11396 12.44947 70.13204 74.09589 1 | 191 63.4677 13.74466 61.50596 65.42943 combined | 345 67.32719 13.84938 65.86063 68.79375 diff | 8.646265 1.412626 5.86763 11.4249 Satterthwaite's degrees of freedom: 338.349 Ho: mean(0) - mean(1) = diff = 0 Ha: diff < 0 Ha: diff != 0 Ha: diff > 0 t = 6.1207 t = 6.1207 t = 6.1207 P < t = 1.0000 P > |t| = 0.000 P > t = 0.000

Comparaison de moyennes 2 moyennes observées : Test t de Student Ex : Age moyen des ♂ diffère-t-il de celui des ♀? Comment faire « à la main » ? H : v1 ~ N dans chacun des deux groupes  Si n1 ≥ 30 et n2 ≥ 30 : OK m ~ N dans chaque groupe ε = | m1 – m2 | / (√s12/n1 + s22/n2)

Comparaison de moyennes 2 moyennes observées : Test t de Student Ex : Age moyen des ♂ diffère-t-il de celui des ♀? Comment faire « à la main » ?  Si n1 ≥ 30 et n2 ≥ 30 : OK  Si n1 < 30 ou n2 < 30 : H : v1 ~ N dans chaque groupe & σ1 = σ2 t(n1+n2-2) = |m1 – m2| / √ sc2/n1 + sc2/n2 Avec sc2 = ((n1-1) s12 + (n2-1) s22 ) / ((n1-1) + (n2-1) )

Comparaison de moyennes 2 moyennes observées : Test t de Student Ex : Age moyen des ♂ diffère-t-il de celui des ♀? Comment faire « à la main » ? H : v1 ~ N dans chacun des deux groupes  Si n1 ≥ 30 et n2 ≥ 30 : OK  Sinon : tester la normalité dans chaque groupe ou H Normales & variances égales : OK Pas normales : test non paramétrique

Comparaison de moyennes > 2 moyennes observées : ANOVA v1 : v quantitative v2 : v qualitative à > 2 classes Ou v2, v3,… Moyenne de v1 selon que v2 = x ou v2 = y ou v2 = z Ex : Age moyen est-il différent selon les groupes de traitement A, B ou C?

Compare 3 moyennes (v qualitative à 3 classes et 1 va quantitative) oneway age tpsecq, tabulate | Summary of AGE tpsecq | Mean Std. Dev. Freq. ------------+------------------------------------ 1 | 67.204546 13.484868 176 2 | 71.184849 13.115466 66 3 | 64.685898 15.211498 78 Total | 67.411563 13.980171 320 Analysis of Variance Source SS df MS F Prob > F ---------------------------------------------------------------------------------- Between groups 1526.7 2 763.4 3.98 0.0197 Within groups 60820.3 317 191.9 Total 62347.0135 319 195.445183 Bartlett's test for equal variances: chi2(2) = 2.0500 Prob>chi2 = 0.359

Comparaison de moyennes 1 moyenne observée / moyenne de référence connue Majorité des logiciels ne font pas : manuel Si n ≥ 30 : m ~ Nl ε = | m – μ | / (σ/√n) Si n < 30 et x ~ Nl t(n-1) = | m – μ | / (σ/√n)

Tests non paramétriques Quand les H de normalité ne sont pas remplies Principe : tests de rangs, teste la différence des distributions Comparer 2 échantillons : test non paramétrique de Mann-Whitney (Wilcoxon) Comparer > 2 échantillons : test de Kruskall Wallis

Test U de Mann & Whitney (version Wilcoxon) • Teste l’hypothèse de différence de position des scores et pas seulement de tendance centrale. • Principe : Ordonner les valeurs obtenues en confondant les deux échantillons. Affecter le rang correspondant à chaque valeur. • Comparaison de la somme des rangs dans les deux groupes. • H0 : Somme des rangs dans pop°1=somme des rangs ds pop° 2 • Calcul de la statistique U. • Pour des échantillons d'une taille supérieure à 20, la distribution d'échantillonnage de la statistique du U tend vers une distribution Normale

Comparaison de deux moyennes par un test non paramétrique Two-sample Wilcoxon rank-sum (Mann-Whitney) test sexe | obs rank sum expected -------------+--------------------------------- 0 | 154 32008.5 26642 1 | 191 27676.5 33043 combined | 345 59685 59685 unadjusted variance 848103.67 adjustment for ties -14.75 ---------- adjusted variance 848088.92 Ho: age(sexe==0) = age(sexe==1) z = 5.827 Prob > |z| = 0.0000

Comparaison de pourcentages 2 pourcentages observés : Chi2 2 va qualitatives Conditions : tous les effectifs théoriques ≥ 5 Ex : Le % de DC est-il significativement supérieur chez les malades hospitalisés en USI sans climatisation ? ↔ La climatisation est-elle associée à une moindre mortalité ? H0 : p1 = p2 H1 : p1  p2

Tableau d'effectifs observés Observés : effectifs de chacune des cases suivant que le sujet est malade ou non et exposés ou non Tableau d'effectifs observés Théoriques : effectifs que l'on aurait trouvé dans les 4 cases sous l'hypothèse que le risque relatif de la population est 1 Tableau d'effectifs théoriques

ddl=(colonnes-1) (lignes-1) ddl: degrés de liberté Le 2 se définit par : 2= ddl=(colonnes-1) (lignes-1) ddl: degrés de liberté Exemple: Soit un échantillon x : 400 sujets, pour lesquels on compte : 39 exposés dont 18 malades 361 non exposés dont 44 malades Compléter ces tableaux et calculer le 2:

Effectifs théoriques : 2 =30.9

Comparaison de pourcentages 2 pourcentages observés : Chi2 Conditions : tous les effectifs théoriques ≥ 5 Ex : Le % de DC est-il significativement supérieur chez les malades hospitalisés en USI sans climatisation ? Chi2 « manuel » χ2 = Σij (Oij-Cij)2 /Cij (ad-bc)2 χ2 = x N n1 x n2 x n3 x n4 VV DCD C- 58 129 187 C+ 71 87 158 216 345

L’absence de climatisation de l’USI est-elle associée au DC L’absence de climatisation de l’USI est-elle associée au DC ? (unilatéral) Existe-t-il une relation entre la climatisation de l’USI et le DC ? (bilatéral) . tab clim dcd, col row exp chi2 exact | dcd clim | 0 1 | Total -----------+----------------------+----------+----------+----------+---------- 0 | 58 129 | 187 | 69.9 117.1 | 187.0 | 31.02 68.98 | 100.00 | 44.96 59.72 | 54.20 1 | 71 87 | 158 | 59.1 98.9 | 158.0 | 44.94 55.06 | 100.00 | 55.04 40.28 | 45.80 -----------+----------------------+----------+----------+----------+----------+ Total | 129 216 | 345 | 129.0 216.0 | 345.0 | 37.39 62.61 | 100.00 | 100.00 100.00 | 100.00 Pearson chi2(1) = 7.0892 Pr = 0.008 Fisher's exact = 0.010 1-sided Fisher's exact = 0.005

Relation entre la mortalité et l’existence d’une insuffisance cardiaque pré-existante : 2 va qualitative = Chi2 . tab inscard dcd, col row exp chi2 exact | dcd InsCard | 0 1 | Total -----------+----------------------+---------- 0 | 117 154 | 271 | 101.3 169.7 | 271.0 | 43.17 56.83 | 100.00 | 90.70 71.30 | 78.55 1 | 12 62 | 74 | 27.7 46.3 | 74.0 | 16.22 83.78 | 100.00 | 9.30 28.70 | 21.45 Total | 129 216 | 345 | 129.0 216.0 | 345.0 | 37.39 62.61 | 100.00 | 100.00 100.00 | 100.00 Pearson chi2(1) = 18.0437 Pr = 0.000 Fisher's exact = 0.000 1-sided Fisher's exact = 0.000

Comparaison de pourcentages 2 pourcentages observés : Chi2 Si ≥ 1 Cij < 5 Mais tous Cij ≥ 3 → Chi2 Yates (Chi2 corrigé) χ2 = Σij (|Oij-Cij |-0.5)2 /Cij Si ≥ 1 Cij < 3 → Test exact de Fisher (logiciel) Ex : Stata

Comparaison de pourcentages Comparer plusieurs pourcentages : Chi2 > va qualitatives à > 2 classes Conditions : tous les effectifs théoriques ≥ 5 Ex :  association entre la mortalité en USI et le TP ?

Comparaison de plusieurs pourcentages Chi2 . tab tpsecq dcd, row exp chi2 exact | dcd tpsecq | 0 1 | Total -----------+----------------------+---------- <=19 | 100 76 | 176 | 67.7 108.3 | 176.0 | 56.82 43.18 | 100.00 20-26 | 12 54 | 66 | 25.4 40.6 | 66.0 | 18.18 81.82 | 100.00 > 26 | 11 67 | 78 | 30.0 48.0 | 78.0 | 14.10 85.90 | 100.00 Total | 123 197 | 320 | 123.0 197.0 | 320.0 | 38.44 61.56 | 100.00 Pearson chi2(2) = 56.0922 Pr = 0.000 Fisher's exact = 0.000

Comparaison de pourcentages Comparer plusieurs pourcentages : Chi2 va qualitatives à > 2 classes Conditions : tous les effectifs théoriques ≥ 5 Si  C <5  Regroupements Yates Fisher

Test appariés Intérêt Diminuer la variance du paramètre étudié : élimine une part de la variance individuelle  Améliore la puissance du test Ex d’appariement pour ↓ la variabilité Les traitements A et B sont donnés aux mêmes sujets Alternance aléatoire avec wash out Topiques différents sur deux membres Les patients malades sont appariés à des témoins Sujets  mais caractéristiques proches (études cas-témoins) Mesures faites à deux reprises sur les mêmes patients Avant-après traitement

Test appariés ↓ σ du paramètre étudié  Améliore la puissance du test Intérêt ↓ σ du paramètre étudié  Améliore la puissance du test Exemple fréquent : comparer deux méthodes de mesure Mesure de la glycémie par 2 tests chez le même malade 2 radiologues lisant les mêmes radiographies Variations de la PA sur le nycthémère Principe : tester la différence à zéro Mais ne permet pas de tester l’effet de la variable d’appariement

Tests appariés Principe : tester la différence à zéro Comparer deux moyennes appariées H0 : μd = 0 H1 : μd  0 n ≥ 30 ε = md / (σd/ √n) σd2 : variance des di n < 30 et di ~ Nle tn-1 = md / (σd/√n) σd2 : variance des di Dans SPSS : t-test for paired sample Test non paramétrique : test signé de wilcoxon pour données appareillées (attention diff du test de Wilcoxon pour données non appariées)

Test signé de Wilcoxon pour séries appariées le Wilcoxon prend aussi en compte l'ampleur des différences. On va ordonner les différences en fonction de leur valeur absolue. On donne la valeur 1 à la plus faible diff en V.A. On attribue à chacun de ces rangs le signe de la différence correspondante (+ ou -). Ho : on attend que la somme des rangs <0 soit égale à celle des rangs >0.

Test appariés Comparer deux pourcentages appariées chi² de Mac Nemar H0 : P0 = P1 H1 : P0  P1 Ex : 2 traitements locaux du psoriasis sont comparés, A et B, chacun étant appliqué sur un bras PA = 0.65 PB = 0.45 Analyse des paires discordantes (+et-) χ2 = (b – c)2 / (b + c) = 5 Condition : (b+c)/2 ≥ 5 χ 2y = (|b – c | - 1)2 / (b + c) A B S 65 45 E 35 55 A + A- B+ 15 30 =b 45 B- 50 =c 5 55 65 35 H0 teste b’=c’=(b+c)/2

Tests paramétriques et de leurs équivalents non paramétriques Test paramétrique Test non paramétrique Test t de Student non apparié Test de Mann et Whitney Test t de Student apparié Test signé de Wilcoxon Analyse de variance Test de Kruskall et Wallis Corrélation linéaire Test de Spearman Chi² de Pearson Chi² de Mac Nemar

Récapitulatif * Attention il y a un test de Wilcoxon qui s’apparente au test de Mann Withney, qui diffère du test signé de Wilcoxon qui est lui pour les séries appariées