Analyses IRMf Oury Monchi, Ph.D.

Slides:



Advertisements
Présentations similaires
Introduction à l’analyse
Advertisements

ANOVA à un facteur (Rehailia)
D.Gile statscrit1 LUTILISATION DES STATISTIQUES INFERENTIELLES DANS LA RECHERCHE : REFLEXIONS CRITIQUES
Thomas G. Dietterich Approximate Statistical Tests for Comparing
Risques d’erreur statistique et test statistique
RECONNAISSANCE DE FORMES
Test statistique : principe
Les tests d’hypothèses (II)
La régression logistique: fondements et conditions d’application
Inférence statistique
Comparaison de plusieurs moyennes observées
Tests non paramétriques
Tests de comparaison de pourcentages
Les TESTS STATISTIQUES
Les tests d’hypothèses
Laboratoire Inter-universitaire de Psychologie Cours 6
Analyse de la variance à un facteur
La perception subjective de la corrélation dans les nuages de points
12 novembre 2012 Grégory Petit
Guy Gauthier, ing., Ph.D. Session été 2013.
COURS 5 Les tableaux croisés, le chi-carré et la corrélation
Analyses IRMf Oury Monchi, Ph.D.
Les liens entre les variables et les tests d’hypothèse
Application des algorithmes génétiques
Laboratoire II: Le modèle linéaire général (GLM)
Plans à groupes indépendants: organisation
Laboratoire I: Introduction & pré-traitements
Pourquoi les réseaux de neurones de type « perceptron multicouche » conviennent-ils à l’apprentissage Stéphane Canu, INSA de Rouen , PSI André Elisseeff,
La Régression Multiple
Etude longitudinale d’essais multilocaux: apports du modèle mixte
L’inférence statistique
Régression linéaire simple
Howell, Chap. 1 Position générale
1.Un rang de données multicolores 2. Deux permutations des n premiers entiers 3. b permutations des k premiers entiers 4. Choix de n points dans [0,1]
Modeles Lineaires.
La corrélation et la régression
Le test t.
La corrélation et la régression
Les modèles linéaires (Generalized Linear Models, GLM)
Corrélation Principe fondamental d’une analyse de corrélation
ANOVA à critères multiples
Prédiction multi-step de la volatilité : le modèle ARIMA-GARCH appliqué aux séries temporelles d’affaiblissement par la pluie sur les liaisons Terre-Satellite.
Objectifs Chapitre 8: Mesure en psychologie
Analyse factorielle de variance: Principes d’expérimentation
La régression multiple
Présentation de la méthode des Eléments Finis
ORGANIGRAMME-MÉTHODES STATISTIQUES-COMPARAISONS DE MOYENNES
Méthodologie expérimentale : l’analyse des données
ANOVA : introduction.
ANALYSE DE DONNEES TESTS D’ASSOCIATION
Echantillonage pour une Evaluation d’Impact
Laboratoire III: “Finite impulse response (FIR)”, normalisation & analyse de groupe Jean-Sébastien Provost, Ph.D Centre de Recherche, Institut Universitaire.
M2 Sciences des Procédés - Sciences des Aliments
STATISTIQUES – PROBABILITÉS
Probabilités et Statistiques Année 2010/2011
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :35 1 Comparaisons multiples Ce qu’elles sont.
Université de Montréal
Concepts fondamentaux: statistiques et distributions
Université d’Ottawa - Bio Biostatistiques appliquées © Antoine Morin et Scott Findlay :52 1 Comparaisons multiples Ce qu’elles sont.
L’erreur standard et les principes fondamentaux du test de t
Méthode des moindres carrés (1)
Régression linéaire (STT-2400)
Méthodes de prévision (STT-3220)
Chapitre 4 Concepts fondamentaux Les composantes d’un test statistique Les hypothèses nulles en statistiques Le sens de p Inférence: comment traduire p.
Comparaison de plusieurs moyennes observées
Tests relatifs aux variables qualitatives: Tests du Chi-deux.
Académie européenne des patients sur l'innovation thérapeutique Rôle et notions élémentaires des statistiques dans les essais cliniques.
Introduction aux statistiques Intervalles de confiance
La VBM, aspects pratiques. Soft :FSL/ Free/ FSL –Free : segmente, notion de mesure? –FSL : pas de substance blanche disponible –SPM 2 / 5.
Transcription de la présentation:

Analyses IRMf Oury Monchi, Ph.D. Centre de Recherche, Institut Universitaire de Gériatrie de Montréal & Université de Montréal 1

But de ce cours Donner une introduction à l’analyse IRMf la plus classique, c’est à dire celle qui utilise le modèle général linéaire Cette introduction devrait être indépendante du software (à peu de choses prêt!) utilisé pour l’analyse, mais les exemples viendront des minc tools/fmristat (aussi implémenté dans Neurolens) et de SPM

Plan pour une éxpérience IRMf et son analyse Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Prétraitement – analyses SPM

Plan pour une éxpérience IRMf et son analyse Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Une Expérience simple TEMPS Blank Screen Intact Objects Scrambled Lateral Occipital Complex: responds when subject views objects Blank Screen TEMPS Intact Objects Scrambled Objects Un volume (12 tranches) chaque 2 secondes pour 272 secondes (4 minutes, 32 secondes) Conditions changent chaque 16 secondes (8 volumes)

Quelles sont les données avec lesquels nous devons travailler? Expérience typique: 64 voxels x 64 voxels x 12 slices x 136 points temporels Cela fait 136 volumes Ou vu autrement 64x64x12 = 49,152 voxels, chacun avec son décours temporel!!

Pourquoi a-t-on besoin de statistique? Tranche 9, Voxel 0, 0 Même là où il n’y a pas de cerveau, il y a du bruit Tranche 9, Voxel 1, 0 Tranche 9, Voxel 22, 7 Signal beaucoup plus grand où le cerveau est, mais il y a encore du bruit Tranche 9, Voxel 14, 42 Ici quelques uns qui montrent à peu près le bon patron... mais est-ce réel? Tranche 9, Voxel 18, 36 Tranche 9, Voxel 9, 27 Ici un voxel qui réponb bien lorsqu’il y a un stimulus visuel Tranche 9, Voxel 13, 41 Ici un qui répond bien lorsqu’il y a des objets intacts On pourrait en principe analyser les données en naviguant à travers les voxels: déplacer le curseur sur différentes régions et regarder si on trouve temporelle qui nous intéresse

Pourquoi a-t-on besoin de statistique? Il est clair que naviguer à travers les voxels n’est pas plausible. Il nous faudrait le faire 49,152 fois cela demanderait beaucoup de décisions subjectives pour savoir si une activation est réelle. C’est pour cela qu’on a besoin de statistiques Statistiques: Nous indiques ou regarder pour les activations qui SONT reliés à notre paradigme Nous aide à décider à quel point les activations sont ‘réelles’ The lies and damned lies come in when you write the manuscript

Statistiques: le test t Le test t sert à comparer la grosseur des effets (i.e. la différence entre blocks) à la variance des données (i.e. déviation standard). En (A), l’effet est de 2 unités, variance est haute, donc t = 2,3. En (B), l’effet est de seulement 1 unité, mais la variance est beaucoup plus petite, donc t = 6,7, une valeur beaucoup plus grande

PCA_IMAGE: PCA du temps x espace 20 40 60 80 100 120 140 4 3 2 1 Composante Cadre Composantes temporelles (d.s., % variance expliquée) 0.68, 46.9% 0.29, 8.6% 0.17, 2.9% 0.15, 2.4% -1 -0.5 0.5 Tranche (0 based) Composantes Spatiales 6 8 10 12 1: exclure les premières images 2: drift (dérive) 3: long-range correlation or anatomical effect: remove by converting to % of brain 4: signal? PCA = Principal Component Analysis

Le Modèle Linéaire Général (GLM) Le test t, corrélations et analyse Fourier fonctionnent pour des dessins simples, et étaient très communs au début d’imagerie Le modèle linéaire général (GLM) est maintenant disponible dans beaucoup de paquets software, et a tendance à être l’analyse préférée Pourquoi le GLM est si populaire? Le GLM est un outil qui peut faire tout ce que les tests plus simples peuvent faire Vous pouvez imaginer n’importe quelle combinaison de contrastes (e.g. intact – scrambled, scrambled – repos) avec un GLM, plutôt que des corrélations multiples Le GLM nous donne une plus grande flexibilité pour combiner les données intra- et inter-sujet Il est aussi plus facile de contrebalancer les ordres et jeter les mauvaises sections des données Le GLM nous permet de modéliser des choses qui pourraient faire partie de la variance des données, même si elles ne sont pas intéressantes par soi-même (e.g. mouvements de la tête On verra plus tard dans le cours, le GLM permet aussi d’utiliser des dessins plus complexes (e.g. dessins factoriels)

Modéliser la réponse attendue (assomptions) La réponse est presque entièrement déterminée par le dessin expérimental La réponse BOLD a la même forme et le même délai à travers toutes les régions du cerveau The signal BOLD est décomposable de manière linéaire à travers les événements La réponse devrait être la même pour tous les essais d’une même condition

Modéliser la réponse attendue (fmridesign) Convoluer avec un modèle hrf

Modéliser les données (GLM) = β + y x ε

Modéliser les données (GLM) yi = xiβ + εi PENDANT Pas justifié par le modèle Du scanneur erreur JAMAIS paramètre données modèle Poids du modèle Vous créez APRÈS AVANT

En recherche d’un critère On essaie de minimiser: Σ(yi – Xiβ)2 données modèle paramètre

Estimation des Moindres Carrés Nous devons faire ceci pour chaque voxel séparément (i.e. on a le même nombre de β que de voxels Référence : J. Armony

Déduction statistique Où, dans le cerveau, avons nous un paramètre expérimental (β) significativement plus grand que zéro? Référence : J. Armony

Déduction statistique Hypothèse: Contraste: combinaison linéaire de paramètres c = [1 -1] Référence : J. Armony

FMRILM Paramètres inconnus Ajuste un modèle linéaire pour une série de temps IRMf avec AR(p) erreurs Modèle linéaire: Yt = (stimulust * HRF) b + driftt c + erreurt AR(p) erreurs: erreurt = a1 errort-1 + … + ap erreurt-p + s WNt Paramètres inconnus Référence : Dr. K. Worsley

Implémentation FMRISTAT Pour 120 scans, séparés par 3 secondes, et 13 tranches entrelacées chaque 0.12 secondes, utilisez: frametimes=(0:119)*3; slicetimes=[0.14 0.98 0.26 1.10 0.38 1.22 0.50 1.34 0.62 1.46 0.74 1.58 0.86];

Implémentation FMRISTAT events=[ 1 9 9 1 2 27 9 1 1 45 9 1 2 63 9 1 1 81 9 1 2 99 9 1 1 117 9 1 2 135 9 1 1 153 9 1 2 171 9 1 1 189 9 1 2 207 9 1 1 225 9 1 2 243 9 1 1 261 9 1 2 279 9 1 1 297 9 1 2 315 9 1 1 333 9 1 2 351 9 1 ]; Un dessin en block de «  3 scans de repos; 3 scans de stimulus chaud; 3 scans de repos; 3 scans de stimulus tiède », répété 10 fois (120 scans au total) Contraste: contrast = [1 0; 0 1; 1 -1];

FMRISTAT, étude paramétrique Chaud = 49oC, Tiède = 35oC Disons que la température du stimulus changeait d’une façon aléatoire sur 20 blocks, prenant 5 valeurs réparties également entre 35 et 49: temperature=[45.5 35.0 49.0 38.5 42.0 49.0 35.0 42.0 38.5 45.5 ... 38.5 49.0 35.0 45.5 42.0 45.5 38.5 42.0 35.0 49.0]'; events=[zeros(20,1)+1 eventimes duration ones(20,1); zeros(20,1)+2 eventimes duration temperature] contrast=[0 1];

FMRISTAT, étude paramétrique

Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Types d’erreurs statistique Erreur Type I Rejet correct Succès Erreur Type II Hypothèse Vraie? H1 (active) H0 (inactive) Réponse du test statistique Accepter H0 Rejeter H0 (inactive) (active)

Significcativité et comparisons multiples Comparaisons multiples à travers le cerveau: il y a ~200,000 voxels dans le cerveau!! Options: Pas de correction (p < 0.05 non corrigé) Avantage: facile, minimise les erreurs de type II Désavantage: Beaucoup trop de faux positifs (Erreurs de Type I), 5% 200,000 = 10,000 voxels! Correction de Bonferroni (p < 0.05/200,000 = 0.00000025) Avantage: Facile, minimise les erreurs de type I Désavantage: Trop strict. Trop d’erreurs de Type II

Correction de Bonferroni Données pour un seul sujet à trois niveaux de signifiance Probabilité ajustée à 0.05 Probabilité ajustée à 0.001 Correction de Bonferroni, ajustée à une valeur P de 0.05 fmri-fig-12-18-0.jpg

Significativité et comparaisons multiples Les champs gaussiens aléatoires (sorte de lissage spatial) Avantage: Marche bien pour les données spatialement corrélés. Résultats raisonnable. Désavantage: Encore assez strict. Enlève un peu de spécificité spatiale (à cause du lissage) “Pseudo-Bonferroni” correction (p < 0.001), il faut savoir le motiver Analyses par régions d’intérêts

Déductions au niveau du voxel Retenir les voxels au-dessus du seuil du niveau de , u Meilleure spécificité spatiale L’hypothèse nulle à un seul voxel peut être rejetée u space Voxels significatives Voxels non-significatives

Déductions au niveau du cluster Procédé à deux étapes Définir les clusters par seuil arbitraire uclus Retenir les clusters plus grands que le seuil du niveau de , k uclus space Cluster non-significatif k k Cluster significatif

Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Analyses de Groupe Motivation & Définitions: Le problème d’inférence de groupe Analyse à effets mixtes (FFX) implémentation SPM FMRISTAT (possible, mais pas recommandé!) Analyse à effets aléatoire (RFX) implémentation SPM du RFX ‘classique’ FMRISTAT solution alternative: analyse à effets mélangés: Lissage du rapport des variances

Motivation effets fixes vs. aléatoires Quelle est la question qui nous intéresse! Qu’est-ce que nous voulons inférer: Une conclusion sur l’échantillon ou groupe spécifique que nous avons examiné Une conclusion sur toute la population d’ou provient cet échantillon Pour le 1er problème, une analyse à effet fixe est suffisante Conclusion: Ce groupe spécifique de patients de ‘type A’ révèle ce patron d’activation Pour le 2nd problème une analyse à effet aléatoire est nécessaire Conclusion: Ce patron d’activation devrait être observé chez tous les patients de ‘Type A’

Effets Fixes Avantages: Beaucoup de degrés de liberté ( ~1000) Prend en compte la concordance global du modèle Faux négatifs peu probable Désavantages: La variance entre les sujets et les séries n’est pas prise en compte Les résultats peuvent provenir majoritairement d’un ou de quelques sujets  Erreurs de Type I, c’est à dire des faux positifs

Effets Aléatoires Avantages: Prend en compte la variabilité inter séries et inter sujets Moins sensible à certains paramètres spécifique du modèle Désavantages: Très peu de degrés de liberté  erreur de type II, faux négatifs Très sensible à la variation fonctionnelle et anatomique inter-sujets

Effets fixes: implémentation SPM Autre terme: analyse de premier niveau Identique à l’analyse 1run/sujet, sauf que le nombre de scans doit être spécifié pour chaque run ou sujet Par exemple: « (100, 100, 100, 100, 100) » pour 100 acquisitions, 5 runs ou sujets

Effets fixes: implémentation fmristat 1 Sujet, 1 contraste, 5 runs df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, Inf) input_files_effect = [’run1_cont1_mag_ef_tal.mnc'; ’run2_cont1_mag_ef_tal.mnc'; ’run3_cont1_mag_ef_tal.mnc'; ’run4_cont1_mag_ef_tal.mnc'; ’run5_cont1_mag_ef_tal.mnc]; input_files_sdeffect = [’run1_cont1_mag_sd_tal.mnc'; ’run2_cont1_mag_sd_tal.mnc'; ’run3_cont1_mag_sd_tal.mnc'; ’run4_cont1_mag_sd_tal.mnc'; ’run5_cont1_mag_sd_tal.mnc’]; X = [1 1 1] fwhm_varatio

Effets fixes: implémentation fmristat Par contre, les analyses à effets fixes ne sont pas recommandées, parce qu’elles ne tiennent pas en compte la variance inter-run et inter-sujet Solution fmristat: Variance ratio smoothing (voir ci-bas), autres logiciels analyses à effets mixtes

Effets aléatoires: implémentation SPM Importez les fichiers .con de l’analyse à 1er niveau (un seul contraste de différents sujets) dans une analyse a 2ème niveau Degrés de liberté (DF) très bas, donné par le "nombre de sujets" - "rank of 2nd level design matrix" Donc si nous avons 12 sujets dans un groupe, DF = 11 Ce type d’analyse peut être trop conservateur, et requiert beaucoup de sujets, et beaucoup de données pour atteindre signifiance

Effets aléatoires: implémentation fmristat Il est possible de faire le même type d’analyse à effets aléatoires dans fmristat en ajustant le paramètre fwhm_variatio à 0. df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, 0) Par contre, fmristat nous permet d’implémenter une analyse à effets mixtes avec un nombre de degrés de liberté plus haut, et devient donc moins conservateur

MULTISTAT: modèle linéaire à effets mixtes Sert à combiner les effets de différentes runs/sessions/sujets Ei = effect for run/session/subject i Si = standard error of effect Modèle à effets mixtes: Ei = covariatesi c + Si WNiF +  WNiR }de FMRILM ? ? D’habitude 1, mais pourrait ajouter groupe, traitement, âge, sexe, ... Effet aléatoire, dû à la variabilité de run en run Erreur des ‘Effets fixes’, dû à la variabilité au sein du même run

Alternative fmristat: Variance Ratio Smoothing La variance à effets aléatoires est très variable, à cause des degrés de liberté (dfs) très bas. L’idée de Variance Ratio Smoothing est d’utiliser la variance à effets fixes comme template pour estimer la variance à effets aléatoires Ceci est fait par régularisant le rapport de variance à effets aléatoires (estimée) divisée par la variance à effets fixes (obtenus de l’analyse précédente) Fwhm_varatio est un filtre qui permet de régulariser ce rapport Comment choisit-on Fwhm_variatio? Sa valeur est motivée par les dfs conséquents. Une bonne valeur à viser est 100df. Les nouvelles versions d’fmristat vous permettent d’entrer le nombre de dfs désiré en insérant une valeur négative au paramètre fwhm_varatio: df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, -100)

Exemple: contraste entre populations n sujets, groupes patients vs contrôles Contraste = [1 -1 Patient > contrôles -1 1] Contrôles > patients input_files_effect = [’subj1_patient_mag_ef_tal.mnc’; ’subj2_patient_mag_ef_tal.mnc’; ’subjn_patient_mag_ef_tal.mnc’; ’subj1_control_mag_ef_tal.mnc'; ’subj2_control_mag_ef_tal.mnc; ‘sunjn_control_mag_ef_tal.mnc]; input_files_sdeffect =[’subj1_patient_mag_sd_tal.mnc'; ’subj2_patient_mag_sd_tal.mnc'; ’subjn_patient_mag_sd_tal.mnc'; ’subj1_control_mag_sd_tal.mnc'; ’subj2_control_mag_sd_tal.mnc; ‘sunjn_control_mag_sd_tal.mnc]; X = [1 0 sujet 1 groupe patient 1 0 sujet 2 groupe patient 1 0 sujet n groupe patient 0 1 sujet 1 groupe contrôle 0 1 sujet 2 groupe contrôle 0 1] sujet n groupe contrôle

Combien de sujets? La plus grande portion de variance vient de la dernière étape, i.e. la combinaison des sujets: sdrun2 sdsess2 sdsuj2 nrun nsess nsuj nsess nsuj nsuj Si vous voulez optimiser le temps d’utilisation du scanneur, prenez plus de sujets Ce que vous faites aux premiers stades importe peu! +

Comparaison SPM’99 fmristat Différents temps d’acquisition des tranches Ajoute une dérive temporale Décale le modèle Enlèvement du drift Low-frequency cosines (flat at the ends) Splines (free at the ends) Corrélation temporale AR(1), paramètre global, biais réduction pas nécessaire AR(p), paramètres voxel, biais réduction Estimation des effets Band pass filter, ensuite moindres carrés, ensuite correction pour corrélation temporale Pre-whiten, ensuite moindres carrés (pas d’autres corrections nécessaires) Rationale Plus robuste, mais degrés de liberté plus bas Plus précis, degrés de liberté plus haut Effets aléatoires Pas de régularisation, degrés de liberté bas, bas de conjuncs Régularisation, degrés de liberté hauts, conjuncs Carte du délai Non Oui

Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?

Visualisations 2D et 3D fmri-fig-12-10-0.jpg

Vues « glass-brain » fmri-fig-12-11-0.jpg

Vue aplatie du cerveau fmri-fig-12-12-1.jpg

Neurolens et visusalisation flexible

Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?

À quelle étape devrait-on normaliser les données?

À quelle étape devrait-on normaliser les données? Dans SPM, en défaut, la normalisation se fait du tout début, avant de moyenner les runs. Ceci est un choix sûr, puisque tous les fichiers seront normalisés dans le même espace En fmristat, le choix est à vous! Mais la normalisation déforme les données, et certaines informations sont perdues. Théoriquement, il est meilleur de normaliser vos données à la plus grande étape, i.e. au niveau inter-sujet Par contre, ceci dépend du software de correction de mouvement que vous utilisez. Est-ce que la correction du mouvement est faite intra ou inter-runs?

À quelle étape devrait-on normaliser les données? Resample to Talairach space after linear or non-linear transformations Référence : Worsley et al., 2002

À quelle étape devrait-on normaliser les données? Resample to Talairach space after linear or non-linear transformations Référence : Worsley et al., 2002

Software et diapos Jorge Armony BIG seminars: http://www.douglas.qc.ca/big/ Keith Worsley fmristat: http://www.math.mcgill.ca/keith/fmristat/ SPM courses: http://www.fil.ion.ucl.ac.uk/spm/course/ Jody Culham “fMRI for dummies” http://defiant.ssc.uwo.ca/Jody_web/fmri4dummi es.htm Neurolens: http://www.neurolens.org/NeuroLens/Home.html FSL: http://www.fmrib.ox.ac.uk/fsl/ FIN Prochain cours: normalisation Remerciements: Cécile Madjar, Kristina Martinu