Analyses IRMf Oury Monchi, Ph.D. Centre de Recherche, Institut Universitaire de Gériatrie de Montréal & Université de Montréal 1
But de ce cours Donner une introduction à l’analyse IRMf la plus classique, c’est à dire celle qui utilise le modèle général linéaire Cette introduction devrait être indépendante du software (à peu de choses prêt!) utilisé pour l’analyse, mais les exemples viendront des minc tools/fmristat (aussi implémenté dans Neurolens) et de SPM
Plan pour une éxpérience IRMf et son analyse Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?
Prétraitement – analyses SPM
Plan pour une éxpérience IRMf et son analyse Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?
Une Expérience simple TEMPS Blank Screen Intact Objects Scrambled Lateral Occipital Complex: responds when subject views objects Blank Screen TEMPS Intact Objects Scrambled Objects Un volume (12 tranches) chaque 2 secondes pour 272 secondes (4 minutes, 32 secondes) Conditions changent chaque 16 secondes (8 volumes)
Quelles sont les données avec lesquels nous devons travailler? Expérience typique: 64 voxels x 64 voxels x 12 slices x 136 points temporels Cela fait 136 volumes Ou vu autrement 64x64x12 = 49,152 voxels, chacun avec son décours temporel!!
Pourquoi a-t-on besoin de statistique? Tranche 9, Voxel 0, 0 Même là où il n’y a pas de cerveau, il y a du bruit Tranche 9, Voxel 1, 0 Tranche 9, Voxel 22, 7 Signal beaucoup plus grand où le cerveau est, mais il y a encore du bruit Tranche 9, Voxel 14, 42 Ici quelques uns qui montrent à peu près le bon patron... mais est-ce réel? Tranche 9, Voxel 18, 36 Tranche 9, Voxel 9, 27 Ici un voxel qui réponb bien lorsqu’il y a un stimulus visuel Tranche 9, Voxel 13, 41 Ici un qui répond bien lorsqu’il y a des objets intacts On pourrait en principe analyser les données en naviguant à travers les voxels: déplacer le curseur sur différentes régions et regarder si on trouve temporelle qui nous intéresse
Pourquoi a-t-on besoin de statistique? Il est clair que naviguer à travers les voxels n’est pas plausible. Il nous faudrait le faire 49,152 fois cela demanderait beaucoup de décisions subjectives pour savoir si une activation est réelle. C’est pour cela qu’on a besoin de statistiques Statistiques: Nous indiques ou regarder pour les activations qui SONT reliés à notre paradigme Nous aide à décider à quel point les activations sont ‘réelles’ The lies and damned lies come in when you write the manuscript
Statistiques: le test t Le test t sert à comparer la grosseur des effets (i.e. la différence entre blocks) à la variance des données (i.e. déviation standard). En (A), l’effet est de 2 unités, variance est haute, donc t = 2,3. En (B), l’effet est de seulement 1 unité, mais la variance est beaucoup plus petite, donc t = 6,7, une valeur beaucoup plus grande
PCA_IMAGE: PCA du temps x espace 20 40 60 80 100 120 140 4 3 2 1 Composante Cadre Composantes temporelles (d.s., % variance expliquée) 0.68, 46.9% 0.29, 8.6% 0.17, 2.9% 0.15, 2.4% -1 -0.5 0.5 Tranche (0 based) Composantes Spatiales 6 8 10 12 1: exclure les premières images 2: drift (dérive) 3: long-range correlation or anatomical effect: remove by converting to % of brain 4: signal? PCA = Principal Component Analysis
Le Modèle Linéaire Général (GLM) Le test t, corrélations et analyse Fourier fonctionnent pour des dessins simples, et étaient très communs au début d’imagerie Le modèle linéaire général (GLM) est maintenant disponible dans beaucoup de paquets software, et a tendance à être l’analyse préférée Pourquoi le GLM est si populaire? Le GLM est un outil qui peut faire tout ce que les tests plus simples peuvent faire Vous pouvez imaginer n’importe quelle combinaison de contrastes (e.g. intact – scrambled, scrambled – repos) avec un GLM, plutôt que des corrélations multiples Le GLM nous donne une plus grande flexibilité pour combiner les données intra- et inter-sujet Il est aussi plus facile de contrebalancer les ordres et jeter les mauvaises sections des données Le GLM nous permet de modéliser des choses qui pourraient faire partie de la variance des données, même si elles ne sont pas intéressantes par soi-même (e.g. mouvements de la tête On verra plus tard dans le cours, le GLM permet aussi d’utiliser des dessins plus complexes (e.g. dessins factoriels)
Modéliser la réponse attendue (assomptions) La réponse est presque entièrement déterminée par le dessin expérimental La réponse BOLD a la même forme et le même délai à travers toutes les régions du cerveau The signal BOLD est décomposable de manière linéaire à travers les événements La réponse devrait être la même pour tous les essais d’une même condition
Modéliser la réponse attendue (fmridesign) Convoluer avec un modèle hrf
Modéliser les données (GLM) = β + y x ε
Modéliser les données (GLM) yi = xiβ + εi PENDANT Pas justifié par le modèle Du scanneur erreur JAMAIS paramètre données modèle Poids du modèle Vous créez APRÈS AVANT
En recherche d’un critère On essaie de minimiser: Σ(yi – Xiβ)2 données modèle paramètre
Estimation des Moindres Carrés Nous devons faire ceci pour chaque voxel séparément (i.e. on a le même nombre de β que de voxels Référence : J. Armony
Déduction statistique Où, dans le cerveau, avons nous un paramètre expérimental (β) significativement plus grand que zéro? Référence : J. Armony
Déduction statistique Hypothèse: Contraste: combinaison linéaire de paramètres c = [1 -1] Référence : J. Armony
FMRILM Paramètres inconnus Ajuste un modèle linéaire pour une série de temps IRMf avec AR(p) erreurs Modèle linéaire: Yt = (stimulust * HRF) b + driftt c + erreurt AR(p) erreurs: erreurt = a1 errort-1 + … + ap erreurt-p + s WNt Paramètres inconnus Référence : Dr. K. Worsley
Implémentation FMRISTAT Pour 120 scans, séparés par 3 secondes, et 13 tranches entrelacées chaque 0.12 secondes, utilisez: frametimes=(0:119)*3; slicetimes=[0.14 0.98 0.26 1.10 0.38 1.22 0.50 1.34 0.62 1.46 0.74 1.58 0.86];
Implémentation FMRISTAT events=[ 1 9 9 1 2 27 9 1 1 45 9 1 2 63 9 1 1 81 9 1 2 99 9 1 1 117 9 1 2 135 9 1 1 153 9 1 2 171 9 1 1 189 9 1 2 207 9 1 1 225 9 1 2 243 9 1 1 261 9 1 2 279 9 1 1 297 9 1 2 315 9 1 1 333 9 1 2 351 9 1 ]; Un dessin en block de « 3 scans de repos; 3 scans de stimulus chaud; 3 scans de repos; 3 scans de stimulus tiède », répété 10 fois (120 scans au total) Contraste: contrast = [1 0; 0 1; 1 -1];
FMRISTAT, étude paramétrique Chaud = 49oC, Tiède = 35oC Disons que la température du stimulus changeait d’une façon aléatoire sur 20 blocks, prenant 5 valeurs réparties également entre 35 et 49: temperature=[45.5 35.0 49.0 38.5 42.0 49.0 35.0 42.0 38.5 45.5 ... 38.5 49.0 35.0 45.5 42.0 45.5 38.5 42.0 35.0 49.0]'; events=[zeros(20,1)+1 eventimes duration ones(20,1); zeros(20,1)+2 eventimes duration temperature] contrast=[0 1];
FMRISTAT, étude paramétrique
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?
Types d’erreurs statistique Erreur Type I Rejet correct Succès Erreur Type II Hypothèse Vraie? H1 (active) H0 (inactive) Réponse du test statistique Accepter H0 Rejeter H0 (inactive) (active)
Significcativité et comparisons multiples Comparaisons multiples à travers le cerveau: il y a ~200,000 voxels dans le cerveau!! Options: Pas de correction (p < 0.05 non corrigé) Avantage: facile, minimise les erreurs de type II Désavantage: Beaucoup trop de faux positifs (Erreurs de Type I), 5% 200,000 = 10,000 voxels! Correction de Bonferroni (p < 0.05/200,000 = 0.00000025) Avantage: Facile, minimise les erreurs de type I Désavantage: Trop strict. Trop d’erreurs de Type II
Correction de Bonferroni Données pour un seul sujet à trois niveaux de signifiance Probabilité ajustée à 0.05 Probabilité ajustée à 0.001 Correction de Bonferroni, ajustée à une valeur P de 0.05 fmri-fig-12-18-0.jpg
Significativité et comparaisons multiples Les champs gaussiens aléatoires (sorte de lissage spatial) Avantage: Marche bien pour les données spatialement corrélés. Résultats raisonnable. Désavantage: Encore assez strict. Enlève un peu de spécificité spatiale (à cause du lissage) “Pseudo-Bonferroni” correction (p < 0.001), il faut savoir le motiver Analyses par régions d’intérêts
Déductions au niveau du voxel Retenir les voxels au-dessus du seuil du niveau de , u Meilleure spécificité spatiale L’hypothèse nulle à un seul voxel peut être rejetée u space Voxels significatives Voxels non-significatives
Déductions au niveau du cluster Procédé à deux étapes Définir les clusters par seuil arbitraire uclus Retenir les clusters plus grands que le seuil du niveau de , k uclus space Cluster non-significatif k k Cluster significatif
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?
Analyses de Groupe Motivation & Définitions: Le problème d’inférence de groupe Analyse à effets mixtes (FFX) implémentation SPM FMRISTAT (possible, mais pas recommandé!) Analyse à effets aléatoire (RFX) implémentation SPM du RFX ‘classique’ FMRISTAT solution alternative: analyse à effets mélangés: Lissage du rapport des variances
Motivation effets fixes vs. aléatoires Quelle est la question qui nous intéresse! Qu’est-ce que nous voulons inférer: Une conclusion sur l’échantillon ou groupe spécifique que nous avons examiné Une conclusion sur toute la population d’ou provient cet échantillon Pour le 1er problème, une analyse à effet fixe est suffisante Conclusion: Ce groupe spécifique de patients de ‘type A’ révèle ce patron d’activation Pour le 2nd problème une analyse à effet aléatoire est nécessaire Conclusion: Ce patron d’activation devrait être observé chez tous les patients de ‘Type A’
Effets Fixes Avantages: Beaucoup de degrés de liberté ( ~1000) Prend en compte la concordance global du modèle Faux négatifs peu probable Désavantages: La variance entre les sujets et les séries n’est pas prise en compte Les résultats peuvent provenir majoritairement d’un ou de quelques sujets Erreurs de Type I, c’est à dire des faux positifs
Effets Aléatoires Avantages: Prend en compte la variabilité inter séries et inter sujets Moins sensible à certains paramètres spécifique du modèle Désavantages: Très peu de degrés de liberté erreur de type II, faux négatifs Très sensible à la variation fonctionnelle et anatomique inter-sujets
Effets fixes: implémentation SPM Autre terme: analyse de premier niveau Identique à l’analyse 1run/sujet, sauf que le nombre de scans doit être spécifié pour chaque run ou sujet Par exemple: « (100, 100, 100, 100, 100) » pour 100 acquisitions, 5 runs ou sujets
Effets fixes: implémentation fmristat 1 Sujet, 1 contraste, 5 runs df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, Inf) input_files_effect = [’run1_cont1_mag_ef_tal.mnc'; ’run2_cont1_mag_ef_tal.mnc'; ’run3_cont1_mag_ef_tal.mnc'; ’run4_cont1_mag_ef_tal.mnc'; ’run5_cont1_mag_ef_tal.mnc]; input_files_sdeffect = [’run1_cont1_mag_sd_tal.mnc'; ’run2_cont1_mag_sd_tal.mnc'; ’run3_cont1_mag_sd_tal.mnc'; ’run4_cont1_mag_sd_tal.mnc'; ’run5_cont1_mag_sd_tal.mnc’]; X = [1 1 1] fwhm_varatio
Effets fixes: implémentation fmristat Par contre, les analyses à effets fixes ne sont pas recommandées, parce qu’elles ne tiennent pas en compte la variance inter-run et inter-sujet Solution fmristat: Variance ratio smoothing (voir ci-bas), autres logiciels analyses à effets mixtes
Effets aléatoires: implémentation SPM Importez les fichiers .con de l’analyse à 1er niveau (un seul contraste de différents sujets) dans une analyse a 2ème niveau Degrés de liberté (DF) très bas, donné par le "nombre de sujets" - "rank of 2nd level design matrix" Donc si nous avons 12 sujets dans un groupe, DF = 11 Ce type d’analyse peut être trop conservateur, et requiert beaucoup de sujets, et beaucoup de données pour atteindre signifiance
Effets aléatoires: implémentation fmristat Il est possible de faire le même type d’analyse à effets aléatoires dans fmristat en ajustant le paramètre fwhm_variatio à 0. df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, 0) Par contre, fmristat nous permet d’implémenter une analyse à effets mixtes avec un nombre de degrés de liberté plus haut, et devient donc moins conservateur
MULTISTAT: modèle linéaire à effets mixtes Sert à combiner les effets de différentes runs/sessions/sujets Ei = effect for run/session/subject i Si = standard error of effect Modèle à effets mixtes: Ei = covariatesi c + Si WNiF + WNiR }de FMRILM ? ? D’habitude 1, mais pourrait ajouter groupe, traitement, âge, sexe, ... Effet aléatoire, dû à la variabilité de run en run Erreur des ‘Effets fixes’, dû à la variabilité au sein du même run
Alternative fmristat: Variance Ratio Smoothing La variance à effets aléatoires est très variable, à cause des degrés de liberté (dfs) très bas. L’idée de Variance Ratio Smoothing est d’utiliser la variance à effets fixes comme template pour estimer la variance à effets aléatoires Ceci est fait par régularisant le rapport de variance à effets aléatoires (estimée) divisée par la variance à effets fixes (obtenus de l’analyse précédente) Fwhm_varatio est un filtre qui permet de régulariser ce rapport Comment choisit-on Fwhm_variatio? Sa valeur est motivée par les dfs conséquents. Une bonne valeur à viser est 100df. Les nouvelles versions d’fmristat vous permettent d’entrer le nombre de dfs désiré en insérant une valeur négative au paramètre fwhm_varatio: df = multistat (input_files_effect, input_files_sdeffect, input_files_df, input_files_fwhm, X, contrast, output_file_base, which_stats, -100)
Exemple: contraste entre populations n sujets, groupes patients vs contrôles Contraste = [1 -1 Patient > contrôles -1 1] Contrôles > patients input_files_effect = [’subj1_patient_mag_ef_tal.mnc’; ’subj2_patient_mag_ef_tal.mnc’; ’subjn_patient_mag_ef_tal.mnc’; ’subj1_control_mag_ef_tal.mnc'; ’subj2_control_mag_ef_tal.mnc; ‘sunjn_control_mag_ef_tal.mnc]; input_files_sdeffect =[’subj1_patient_mag_sd_tal.mnc'; ’subj2_patient_mag_sd_tal.mnc'; ’subjn_patient_mag_sd_tal.mnc'; ’subj1_control_mag_sd_tal.mnc'; ’subj2_control_mag_sd_tal.mnc; ‘sunjn_control_mag_sd_tal.mnc]; X = [1 0 sujet 1 groupe patient 1 0 sujet 2 groupe patient 1 0 sujet n groupe patient 0 1 sujet 1 groupe contrôle 0 1 sujet 2 groupe contrôle 0 1] sujet n groupe contrôle
Combien de sujets? La plus grande portion de variance vient de la dernière étape, i.e. la combinaison des sujets: sdrun2 sdsess2 sdsuj2 nrun nsess nsuj nsess nsuj nsuj Si vous voulez optimiser le temps d’utilisation du scanneur, prenez plus de sujets Ce que vous faites aux premiers stades importe peu! +
Comparaison SPM’99 fmristat Différents temps d’acquisition des tranches Ajoute une dérive temporale Décale le modèle Enlèvement du drift Low-frequency cosines (flat at the ends) Splines (free at the ends) Corrélation temporale AR(1), paramètre global, biais réduction pas nécessaire AR(p), paramètres voxel, biais réduction Estimation des effets Band pass filter, ensuite moindres carrés, ensuite correction pour corrélation temporale Pre-whiten, ensuite moindres carrés (pas d’autres corrections nécessaires) Rationale Plus robuste, mais degrés de liberté plus bas Plus précis, degrés de liberté plus haut Effets aléatoires Pas de régularisation, degrés de liberté bas, bas de conjuncs Régularisation, degrés de liberté hauts, conjuncs Carte du délai Non Oui
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes Visualisation A quelle étape devrait-on normaliser les données?
Visualisations 2D et 3D fmri-fig-12-10-0.jpg
Vues « glass-brain » fmri-fig-12-11-0.jpg
Vue aplatie du cerveau fmri-fig-12-12-1.jpg
Neurolens et visusalisation flexible
Plan pour une éxpérience IRMf et son analyse Dessin Expérimental Prétraitement Modèle statistique Significativité et comparaison multiple Moyennage des séries, des sujets, comparaison de groupes. Visualisation A quelle étape devrait-on normaliser les données?
À quelle étape devrait-on normaliser les données?
À quelle étape devrait-on normaliser les données? Dans SPM, en défaut, la normalisation se fait du tout début, avant de moyenner les runs. Ceci est un choix sûr, puisque tous les fichiers seront normalisés dans le même espace En fmristat, le choix est à vous! Mais la normalisation déforme les données, et certaines informations sont perdues. Théoriquement, il est meilleur de normaliser vos données à la plus grande étape, i.e. au niveau inter-sujet Par contre, ceci dépend du software de correction de mouvement que vous utilisez. Est-ce que la correction du mouvement est faite intra ou inter-runs?
À quelle étape devrait-on normaliser les données? Resample to Talairach space after linear or non-linear transformations Référence : Worsley et al., 2002
À quelle étape devrait-on normaliser les données? Resample to Talairach space after linear or non-linear transformations Référence : Worsley et al., 2002
Software et diapos Jorge Armony BIG seminars: http://www.douglas.qc.ca/big/ Keith Worsley fmristat: http://www.math.mcgill.ca/keith/fmristat/ SPM courses: http://www.fil.ion.ucl.ac.uk/spm/course/ Jody Culham “fMRI for dummies” http://defiant.ssc.uwo.ca/Jody_web/fmri4dummi es.htm Neurolens: http://www.neurolens.org/NeuroLens/Home.html FSL: http://www.fmrib.ox.ac.uk/fsl/ FIN Prochain cours: normalisation Remerciements: Cécile Madjar, Kristina Martinu