Université de Montréal Analyses IRMf Oury Monchi, Ph.D. Unité de Neuroimagerie Fonctionnelle, Centre de Recherche, Institut Universitaire de Gériatrie de Montréal & Université de Montréal 1
But Donner une introduction à l’analyse IRMf la plus classique c.a.d celle qui utilise le modèle général linéaire Cette introduction devrait être indépendant du software (à peu de choses prêts!) utilisé pour l’analyse mais les exemples viendront des minc tools/fmristat (aussi implémenté dans Neurolens) et de SPM
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Pré-traitement Modèle statistique Significativité et comparison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?
Experimental Design Blocked vs. event-related Source: Buckner 1998
Experimental design Block design compare long periods (e.g., 16 sec) of one condition with long periods of another traditional approach most statistically powerful approach less dependent on how well you model the hemodynamic response Event-related design compare brief trials (e.g., 1 sec) of one condition with brief of another very new (since ~1997) approach less statistically powerful but has many advantages trials can either be well-spaced to allow the MR signal to return to baseline between trials (e.g., 12+ seconds between trials) or closely spaced (e.g., every 2 sec)
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Pré-traitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?
Pré-traitement
Réaligner au 2ème volume Preprocessing 1 2 3 4 N-1 N-2 N-3 . N Série 1 Réaligner au 2ème volume De chaque volume Correction du Mouvement
Convolved with a Gaussian Lissage Spatial Application d’un filtre Gaussien Généralement exprimé en #mm FWHM “Full Width – Half Maximum” Typiquement ~2 fois la taille d’un voxel Before convolution Convolved with a Gaussian
Preprocessing MNI Fmr_preprocess fait à la fois la correction du mouvement: spécifier l’acquisition cible (-target #) et le lissage, spécifier la taille (-fwhm #en mm) En général choisir la taille du lissage (fwhm), 2 fois plus grand que la taille du voxel acquis
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes. A quelle étape devrait-on normaliser les données?
Une Expérience simple TIME Blank Screen Intact Objects Scrambled Lateral Occipital Complex responds when subject views objects Blank Screen Intact Objects Scrambled Objects TIME One volume (12 slices) every 2 seconds for 272 seconds (4 minutes, 32 seconds) Condition changes every 16 seconds (8 volumes)
Quelles sont les données avec lesquels nous devons travailler? Expérience typique: 64 voxels x 64 voxels x 12 slices x 136 points temporels Cela fait 136 volumes Ou vu autrement 64x64x12 = 49,152 voxels, chacun avec son décours temporel!!
Pourquoi on a besoin de stats? On pourrait en principe analyser les données en naviguant à travers les voxels: déplacer le curseur sur différentes régions et regarder si on trouve temporelle qui nous intéresse Slice 9, Voxel 0, 0 Even where there’s no brain, there’s noise Slice 9, Voxel 1, 0 Slice 9, Voxel 22, 7 The signal is much higher where there is brain, but there’s still noise Slice 9, Voxel 14, 42 Here’s a couple that sort of show the right pattern but is it “real”? Slice 9, Voxel 18, 36 Slice 9, Voxel 9, 27 Here’s a voxel that responds well whenever there’s visual stimulation Slice 9, Voxel 13, 41 Here’s one that responds well whenever there’s intact objects
Pourquoi on a besoin de stats? Il est clair que naviguer à travers les voxels n’est pas plausible. Il nous faudrait le faire 49,152 fois cela demanderait beaucoup de décisions subjectives pour savoir si une activation est réelle. C’est pour cela qu’on a besoin de statistiques Statistiques: Nous indiques ou regarder pour les activations qui SONT reliés à notre paradigme Nous aide à décider à quel point les activations sont ‘réelles’ The lies and damned lies come in when you write the manuscript
PCA_IMAGE: PCA of time space: 20 40 60 80 100 120 140 4 3 2 1 Component Frame Temporal components (sd, % variance explained) 0.68, 46.9% 0.29, 8.6% 0.17, 2.9% 0.15, 2.4% -1 -0.5 0.5 Slice (0 based) Spatial components 6 8 10 12 1: exclude first frames 2: drift 3: long-range correlation or anatomical effect: remove by converting to % of brain 4: signal?
The General Linear Model T-tests, correlations and Fourier analysis work for simple designs and were common in the early days of imaging The General Linear Model (GLM) is now available in many software packages and tends to be the analysis of choice Why is the GLM so great? the GLM is an overarching tool that can do anything that the simpler tests do you can examine any combination of contrasts (e.g., intact - scrambled, scrambled - baseline) with one GLM rather than multiple correlations the GLM allows much greater flexibility for combining data within subjects and between subjects it also makes it much easier to counterbalance orders and discard bad sections of data the GLM allows you to model things that may account for variability in the data even though they aren’t interesting in and of themselves (e.g., head motion) as we will see later in the course, the GLM also allows you to use more complex designs (e.g., factorial designs)
Modeling the expected response (Assumptions) La réponse est presque entièrement déterminée par le dessin expérimental La réponse BOLD a la même forme et le même délai à travers toutes les régions du cerveau The signal BOLD est décomposable de manière linéaire à travers les événements La réponse devrait être la même pour tous les essais d’une même condition.
Modeling the expected response (fmridesign)
Modeling the data (GLM)
Modeling the data (GLM) (From Dr. J. Armony)
(From Dr. J. Armony)
(From Dr. J. Armony)
(From Dr. J. Armony)
(from Dr. J. Armony)
FMRILM: fits a linear model for fMRI time series with AR(p) errors ? ? Yt = (stimulust * HRF) b + driftt c + errort AR(p) errors: ? ? ? errort = a1 errort-1 + … + ap errort-p + s WNt unknown parameters (From Dr. K. Worsley)
Implémentation FMRISTAT For 120 scans, separated by 3 seconds, and 13 interleaved slices every 0.12 seconds use: frametimes=(0:119)*3; slicetimes=[0.14 0.98 0.26 1.10 0.38 1.22 0.50 1.34 0.62 1.46 0.74 1.58 0.86];
FMRISTAT implémentation events=[ 1 9 9 1 2 27 9 1 1 45 9 1 2 63 9 1 1 81 9 1 2 99 9 1 1 117 9 1 2 135 9 1 1 153 9 1 2 171 9 1 1 189 9 1 2 207 9 1 1 225 9 1 2 243 9 1 1 261 9 1 2 279 9 1 1 297 9 1 2 315 9 1 1 333 9 1 2 351 9 1 ]; a block design of 3 scans rest, 3 scans hot stimulus, 3 scans rest, 3 scans warm stimulus, repeated 10 times (120 scans total). contrast=[1 0; 0 1; 1 -1];
FMRISTAT étude paramétrique (hot=49oC, and low=35oC), suppose the temperature of the stimulus varied 'randomly' over the 20 blocks, taking 5 equally spaced values between 35 and 49: temperature=[45.5 35.0 49.0 38.5 42.0 49.0 35.0 42.0 38.5 45.5 ... 38.5 49.0 35.0 45.5 42.0 45.5 38.5 42.0 35.0 49.0]'; events=[zeros(20,1)+1 eventimes duration ones(20,1); zeros(20,1)+2 eventimes duration temperature] contrast=[0 1];
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?
Significcativité et comparisons multiples Comparaisons multiples à travers le cerveau Il y a ~200,000 voxels dans le cerveau!! Options: • Pas de correction (p < 0.05 non corrigé) Avantage: facile, minimise les erreurs de type II Désavantage: Beaucoup trop de faux positifs (Erreurs de TypeI), 5% 200,000 = 10,000 voxels! Correction de Bonferroni (p < 0.05/200,000 = 0.00000025) Avantage: Facile, minimise les erreurs de type I Désavantage: Trop strict. Trop d’erreurs de Type II
fmri-fig-12-18-0.jpg
Significativité et comparaisons multiples • Les champs gaussiens aléatoires (sorte de lissage spatial) Avantage: Marche bien pour les données spatialement corrélés. Résultats raisonnable. Désavantage: Encore assez strict. Enlève un peu de spécificité spatiale (à cause du lissage) • “Pseudo-Bonferroni” correction (p < 0.001), il faut savoir le motiver Analyse par régions d’intérêts
Voxel-level Inference Retain voxels above -level threshold u Gives best spatial specificity The null hyp. at a single voxel can be rejected u space No significant Voxels Significant Voxels
Cluster-level Inference Two step-process Define clusters by arbitrary threshold uclus Retain clusters larger than -level threshold k uclus space Cluster not significant k k Cluster significant
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?
Analyses de Groupe Motivation & Définitions: Le problème d’inférence de groupe II. Analyse à effets mixtes (FFX) a implémentation SPM b FMRISTAT (possible, mais pas recommandé!) Analyse à effets aléatoire (RFX) a implémentation SPM du RFX ‘classique’ b FMRISTAT solution alternative: analyse à effets mélangés: Lissage du rapport des variances
Motivation Effets fixes vs. aléatoires Quelle est la question qui nous intéresse! Qu’est-ce que nous voulons inférer: Une conclusion sur l’échantillon ou groupe spécifique que nous avons examiné Une conclusion sur toute la population d’ou provient cet échantillon Pour le 1er problème, une analyse à effet fixe est suffisante Conclusion: Ce groupe spécifique de patients de ‘type A’ révèle ce patron d’activation Pour le 2nd problème une analyse à effet aléatoire est nécessaire Conclusion: Ce patron d’activation devrait être observé chez tous les patients de ‘Type A’
Effets Fixes Avantages: Beaucoup de degrès de liberté ( ~1000) Prend en compte la concordance global du modèle Fauts négatifs peu probable Effets Fixes Désavantages: La variance entre les sujets et les séries n’est pas prise en compte Les résultats peuvent provenir majoritairement d’un ou de quelques sujets Erreurs de Type I, c.a.d des faux positifs
Effets aléatoires Avantages: Prend en compte la variabilité inter séries et inter sujets Moins sensible à certains paramètres spécifique du modèle Désavantages: Très peu de degrés de liberté erreur de type II, faux négatifs Très sensible à la variation fonctionnelle et anatomique inter-sujets (From Dr. J. Armony)
Effets fixes: implémentation SPM Also called first level analysis Identical as single-run/subject analysis except that the number of scans, onset etc has to be re-enterted for each run or subject, e.g.: (100, 100, 100, 100, 100) for 100 acquisitions 5 runs or subjects
Fixed Effects: fmristat implementation 1 1] 1 subject, one contrast, 5 runs input_files_effect = [’run1_cont1_mag_ef_tal.mnc'; ’run2_cont1_mag_ef_tal.mnc'; ’run3_cont1_mag_ef_tal.mnc'; ’run4_cont1_mag_ef_tal.mnc'; ’run5_cont1_mag_ef_tal.mnc]; input_files_sdeffect = [’run1_cont1_mag_sd_tal.mnc'; ’run2_cont1_mag_sd_tal.mnc'; ’run3_cont1_mag_sd_tal.mnc'; ’run4_cont1_mag_sd_tal.mnc'; ’run5_cont1_mag_sd_tal.mnc’]; df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, Inf) fwhm_varatio
Fixed Effects: fmristat implementation However fixed effects analysis not recommended as it does not take into account inter-run or inter-subject variability Fmristat solution: Variance ratio smoothing (see below)
Random Effects: SPM implementation Input .con files from 1st level analysis (single contrast of different subjects) in a second level analysis Df very low given by ‘number of subjects’ - ‘rank of s2nd level design matrix’ So given 12 subjects of the same group, DF = 11 This type of analysis may be too conservative, needing many subjects and much data to reach significance.
Random Effects: fmristat implementation It is possible to perform the same type of random effects analysis in fmristat as in SPM by setting the fwhm_variatio parameter to 0 in multistat, I.e: df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, 0) However fmristat allows for the implementation of a random effects analysis that raises the number of degrees of freedom, and becomes less conservative
MULTISTAT: mixed effects linear model for combining effects from different runs/sessions/subjects: Ei = effect for run/session/subject i Si = standard error of effect Mixed effects model: Ei = covariatesi c + Si WNiF + WNiR }from FMRILM ? ? Usually 1, but could add group, treatment, age, sex, ... ‘Fixed effects’ error, due to variability within the same run Random effect, due to variability from run to run
fmristat alternative: Variance Ratio Smoothing The random effects variance is highly variable as it results in low effective dfs The idea behind Variance Ratio Smoothing is to use the fixed effects Variance as a template for estimating the random effects variance in order to increase the resulting degrees of freedom This is done by regularizing the ratio of the random effects variance (estimated) divided by the fixed effects variance (obtained from the previous analysis) Fwhm_varratio is a spatial filter that allows regularizing this ratio How should we choose Fwhm_variatio? Its value is motivated by the resulting dfs. A good value to aim for is 100df. Newer versions of fmristat allow you to input the desired df’s by inputting a negative value for the fwhm_varatio parameter: df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, -100)
Between populations contrast: example X = [1 0 subject 1 patient group 1 0 subject 2 patient group 1 0 subject n patient group 0 1 subject 1 control group 0 1 subject 2 control group 0 1] subject n control group n subjects, patient vs control group Contrast = [1 -1 Patient greater than control -1 1] Control greater than patients input_files_effect = [’subj1_patient_mag_ef_tal.mnc'; ’subj2_patient_mag_ef_tal.mnc'; ’subjn_patient_mag_ef_tal.mnc'; ’subj1_control_mag_ef_tal.mnc'; ’subj2_control_mag_ef_tal.mnc; ‘sunjn_control_mag_ef_tal.mnc]; input_files_sdeffect =[’subj1_patient_mag_sd_tal.mnc'; ’subj2_patient_mag_sd_tal.mnc'; ’subjn_patient_mag_sd_tal.mnc'; ’subj1_control_mag_sd_tal.mnc'; ’subj2_control_mag_sd_tal.mnc; ‘sunjn_control_mag_sd_tal.mnc];
How many subjects? Largest portion of variance comes from the last stage i.e. combining over subjects: sdrun2 sdsess2 sdsubj2 nrun nsess nsubj nsess nsubj nsubj If you want to optimize total scanner time, take more subjects. What you do at early stages doesn’t matter very much! +
Comparison: SPM’99: fmristat: Different slice acquisition times: Drift removal: Temporal correlation: Estimation of effects: Rationale: Random effects: Map of the delay: SPM’99: Adds a temporal derivative Low frequency cosines (flat at the ends) AR(1), global parameter, bias reduction not necessary Band pass filter, then least-squares, then correction for temporal correlation More robust, but lower df No regularization, low df, no conjuncs No fmristat: Shifts the model Splines (free at the ends) AR(p), voxel parameters, bias reduction Pre-whiten, then least squares (no further corrections needed) More accurate, higher df Regularization, high df, conjuncs Yes
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?
12.10 Two- and three-dimensional representations of fMRI data. fmri-fig-12-10-0.jpg
12.11 Glass-brain views of fMRI data. fmri-fig-12-11-0.jpg
12.12 Flat map views of the brain surface. (Part 1) fmri-fig-12-12-1.jpg
12.12 Flat map views of the brain surface. (Part 2) fmri-fig-12-12-2.jpg
Plan pour une éxpérience IRMf et son analyse Dessin Experimental Pré-traitement Modèle statistique Significativité et comparison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?
A quelle étape devrait-on normaliser les données?
A quelle étape devrait-on normaliser les données? In SPM the default is to normalize from the beginning before averaging over runs. This is a safe choice since all the files that will be averaged will be in the same space In fmristat the choice is yours! But Normalizing distorts the data and some information is lost Theoretically best would be to normalize your data at the latest stage I.e. at the inter-subject level However this may depend on the Motion correction software you use. Is motion correction performed intra or inter runs?
A quelle étape devrait-on normaliser les données? Intra-run Motion correction 1 2 3 4 N-1 N-2 N-3 . N Run 1 Realign to 2nd frame Of each frame 1 2 3 4 N-1 N-2 N-3 . N Run N Realign to 2nd frame Of each frame Default at BIC
A quelle étape devrait-on normaliser les données? Resample to Talairach space after linear or non-linear transformations
A quelle étape devrait-on normaliser les données? Inter-run Motion correction 1 2 3 4 N-1 N-2 N-3 . N Run 1 1 2 3 4 N-1 N-2 N-3 . N Run N Realign all frames of Every run to frame 2 of run 1
A quelle étape devrait-on normaliser les données? Resample to Talairach space after linear or non-linear transformations Worsley et al., 2002
Software et diapos • Jorge Armony BIG seminars http://www.douglas.qc.ca/big/ Keith Worsley fmristat http://www.math.mcgill.ca/keith/fmristat/ SPM courses http://www.fil.ion.ucl.ac.uk/spm/course/ Jody Culham “fMRI for dummies” http://defiant.ssc.uwo.ca/Jody_web/fmri4dummies.htm Neurolens http://www.neurolens.org/NeuroLens/Home.html FSL http://www.fmrib.ox.ac.uk/fsl/