Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
Publié parGisselle Charrier Modifié depuis plus de 10 années
1
LSIIT-ICPS Illkirch, le 11 décembre 2001
Étude de la parallélisation de méthodes heuristiques d’optimisation combinatoire. Application au recalage d’images médicales. Je vais donc vous présenter une étude de la parallélisation de méthodes heuristiques d ’optimisation combinatoire, avec pour domaine d ’application le recalage d ’images médicales. LSIIT-ICPS Illkirch, le 11 décembre 2001
2
Introduction Définition d’un problème d’optimisation combinatoire
Fonction de coût à minimiser ou maximiser Espace de recherchefini ou dénombrable, mais non énumérable en un temps « raisonnable » Difficulté d’un problème d’optimisation combinatoire Taille de l’espace de recherche « Paysage » de la fonction de coût De nombreux problèmes scientifiques ou techniques s ’expriment sous la forme d ’un problème d ’optimisation combinatoire, c ’est-à-dire : - une fonction de coût à minimiser ou maximiser, avec ou sans contraintes - sur un espace de recherche fini ou dénombrable, mais non énumérable en un temps « raisonnable » La difficulté de résolution de ce type de problème est lié surtout à deux facteurs: - d ’une part au paysage de la fonction de coût, en l’occurrence si elle comporte beaucoup de minima locaux, si elle dérivable, etc ; - d ’autre part à la dimension de l’espace de recherche, soit le nombre de variables à optimiser et la taille de la plage de valeur possible pour chacune. LSIIT-ICPS
3
Introduction Multitude d’algorithmes d’optimisation combinatoire
Méthodes exactes programmation dynamique recherche arborescente ... Méthodes approchées - heuristiques recuit simulé et variantes algorithmes évolutionnaires … Pourquoi paralléliser un algorithme d’optimisation ? Traitement de problèmes de grande taille Réduction des temps de calcul Pour résoudre ces problèmes, un grand nombre d ’algorithmes d ’optimisation ont été développés. Ceux-ci peuvent être classés de différentes manières. On distingue ainsi par exemple les méthodes dites exactes, qui s ’attachent à calculer la meilleure de toutes les solutions, et les méthodes approchées ou heuristiques comme les méthodes de type recuit simulé et les algorithmes génétiques qui permettent de déterminer une solution proche de l ’optimum global. Les méthodes exactes sont souvent limitées à de petites instances de problèmes, alors que les méthodes approchées sont plus générales. La parallélisation d ’un algorithme d ’optimisation est nécessaire pour pouvoir traiter des problèmes de grandes tailles et surtout pour réduire les temps de calcul. LSIIT-ICPS
4
1 proc. Alpha EV6 (500MHz) 22,6 années
Introduction Exemple - Le voyageur de commerce Explosion combinatoire : Circuit reliant villes en Allemagne Applegate & al (Princeton University) Parallélisation : des mois de calculs Temps de calcul cumulé et ajusté sur 1 proc. Alpha EV6 (500MHz) 22,6 années L ’exemple typique est le problème du voyageur de commerce, qui consiste à trouver un circuit de longueur minimal. Ce problème est difficile a résoudre en raison de l ’explosion combinatoire du nombre de circuits possibles suivant le nombre de ville. Tant et si bien qu ’une instance du problème avec villes n ’a été résolue qu ’au début cette année en mettant en œuvre en parallèle une recherche arborescente. L ’apport du parallélisme est évident lorsque l ’on regarde le temps de calcul cumulé et ajusté sur un processeur à 500MHz, qui est de 22,6 années contre quelques mois pour la parallélisation. LSIIT-ICPS
5
Introduction Objectifs de la thèse
Adéquation algorithmes d’optimisation/problème Adéquation algorithme/modèle de programmation parallèle Mon objectif est d ’une part d ’étudier l ’adéquation d ’algorithmes d ’optimisation combinatoire et plus précisément de méthodes heuristiques à la résolution d ’une famille de problèmes, en l ’occurrence des problèmes de recalage qui s ’expriment sous la forme d ’une fonction à minimiser. D ’autre part, l ’adéquation algorithme/modèle de programmation parallèle, en nous intéressant plus particulièrement au modèle data-parallèle. LSIIT-ICPS
6
Introduction Choix de l’application : le recalage d’images médicales
Décalage synthétique Image de référence Image source Recalage Pourquoi avoir choisi comme domaine d ’application le recalage d ’images médicales. Tout d ’abord l ’objectif du recalage d ’une ou plusieurs images sources sur une image de référence est d ’aligner géométriquement la ou les images à recaler sur l ’image de référence de telle sorte que les voxels représentants les mêmes structures sous-jacentes soient superposés. Par exemple, si j ’applique a cette image une transformation géométrique paramétrée par le vecteur theta, j ’obtiens par décalage synthétique cette image source. L ’algorithme de recalage devra par conséquent permettre de repositionner correctement l ’image source en trouvant l ’opposé de theta. Plusieurs raisons expliquent le choix de ce domaine d ’application. Tout d ’abord le fait que suivant la transformation recherchée on est amené à optimiser de moins d ’une dizaine à plusieurs millions de variables. Deuxièmement, les fonctions de coût utilisées ont un paysage complexe, i.e. de nombreux minima locaux, qu ’elles sont irrégulières et fortement non linéaires. Le troisième point est le volume important des données puisque la résolution des images est amené à croître. Enfin, une utilisation clinique suppose un temps de calcul qui soit raisonnable (quelques dizaines de minutes). D’une dizaine à plusieurs millions de variables à optimiser « Paysage » complexe des fonctions de coût à minimiser Volume de données important Utilisation possible en routine clinique LSIIT-ICPS
7
Algorithmes d’optimisation retenus
Algorithmes du type recuit simulé Équation de la diffusion Recuit adaptatif Algorithmes évolutionnaires Stratégies d’évolution Évolution différentielle Hybridation Recherche monopoint Preuve de convergence Recherche multipoint Preuve de convergence Dans cette étude, j ’ai retenu plusieurs heuristiques. Deux algorithmes qui sont des variantes continues du recuit simulé, à savoir l ’équation de la diffusion et le recuit adaptatif. Ces algorithmes se caractérisent par une recherche multipoint, de plus différents résultats théoriques ont été établis dont une preuve de convergence. J ’ai également retenu deux algorithmes de la famille évolutionnaire : les stratégies d ’évolution et l ’évolution différentielle. Ces algorithmes effectuent eux une recherche multipoint, et sont également appuyés par plusieurs résultats théoriques. En dernier lieu, l ’hybridation de ces deux types d ’approches est considéré LSIIT-ICPS
8
Plan de l’exposé Méthodes heuristiques et leurs parallélisations
Problématique du recalage d’images médicales Étude dans le cas du recalage rigide Étude dans le cas du recalage déformable Conclusions et perspectives Mon exposé comportera 5 parties. Tout d ’abord je ferais une présentation des différentes méthodes heuristiques retenues et de leurs parallélisations. Dans un second temps je ferais une introduction générale à la problématique du recalage d ’images médicales et je décrirais en détail les deux problèmes qui serviront de cadre à cette étude. C ’est-à-dire le recalage rigide et une méthode de recalage déformable. Les troisième et quatrième parties aborderont l ’étude menée sur les deux problèmes de recalage. Enfin je conclurais et donnerais quelques perspectives LSIIT-ICPS
9
Recuit simulé et variantes
Simulation du phénomène physique de recuit des métaux Distribution de Gibbs-Boltzmann : Équation de la diffusion (1985) Recuit simulé adaptatif (1989) Température et temps de recuit pour chaque composante Voyons tout d ’abord les algorithmes du type recuit simulé. Le recuit simulé est un algorithme d ’optimisation qui simule le phénomène physique de recuit des métaux. Il repose sur un résultat de la mécanique statistique : la distribution de Boltzmann, qui donne la probabilité pour qu ’un métal soit à une température T dans un configuration atomique X avec une énergie E(X). A haute température le métal change sans cesse de configuration, mais si on le refroidit lentement il va se figer dans une configuration atomique qui est d ’énergie minimale. Le recuit simulé reprend ce principe en faisant les analogies suivantes: la configuration X correspond à une solution du problème d ’optimisation et la fonction d ’énergie est la fonction de coût à minimiser. L ’algorithme intègre d ’une part une phase d ’échantillonnage de la distribution et d ’autre part une phase de refroidissement. La première variante continue, l ’équation de la diffusion, est une équation différentielle stochastique correspondant à la loi conditionnelle d ’un processus de diffusion non-homogène. A température constante, elle permet également d ’échantillonner la distribution de Gibbs (ou Boltz.), donc en faisant décroître Tt la configuration Xt va converger vers le minimum global. Le principe de l ’algorithme est de perturber la descente du gradient avec un terme aléatoire dont l ’amplitude est contrôlée par la température. Le recuit adaptatif est également continu, et se différencie par rapport au recuit classique par l ’ajout de températures et de temps de recuit pour chacune des variables réelles d ’une configuration. Ces températures permettent de contrôler la taille de la zone explorée autour de la configuration courante. LSIIT-ICPS
10
Parallélisations Recuits multiples parallèles
Pp-1 T0 T1 Tp-1 Parallélisation par essais multiples P0 P1 Pp-1 T0 T1 Différentes parallélisations sont possibles pour ce type d ’algorithmes Une possibilité est de lancer plusieurs recuits en parallèles sans ou avec des interactions, avec le même schéma de température pour tous les processeurs. On peut d ’autre part toujours lancer plusieurs recuits en parallèles, mais en figeant la température sur chaque processeur. Les configurations sont alors périodiquement propagées des températures élevées vers les températures plus basses. Deux modes de propagation sont possibles : déterministe avec l ’algorithme de Graffigne, auquel cas un processeur qui reçoit une configuration garde par rapport à sa configuration courante celle de coût (énergie minimale) ; le second mode dit probabiliste, fait le choix à partir des probabilités associées aux configurations. La parallélisation multiple consiste à générer des sous-chaînes de configurations concurrentes à même température, puis à garder la meilleure configuration finale des différentes sous-chaînes comme configuration de départ des prochaines sous-chaînes. Le nombre de processeur peut être fixe ou variable. Finalement, la parallélisation massive consiste à remettre à jour en parallèle plusieurs variables. Cette approche n ’est pas appropriée à tous les problèmes. C ’est en revanche la parallélisation adéquate pour l ’équation de la diffusion, en calculant chaque dérivée partielle sur un processeur. Parallélisme massif LSIIT-ICPS
11
Algorithmes évolutionnaires
Simulation du processus de l’évolution Schéma Population courante Population de descendants descendants mutés évaluée Croisement Évaluation Sélection Mutation Passons maintenant aux algorithmes évolutionnaires Les algorithmes évolutionnaires simulent sont obtenus par analogie avec le processus de l ’évolution et de la sélection naturelle. L ’idée est de faire évoluer une population d ’individus, chaque individu représentant une solution potentielle du problème, au moyens d ’opérateurs stochastiques de reproduction afin d ’engendrer de nouveaux individus, puis de favoriser l ’émergence des meilleurs individus, en l ’occurrence ceux de coût minimum. Le schéma est le suivant : A partir la population de départ on crée une population de descendants par croisement d ’individus parents de manière à mélanger leur patrimoine génétique. Ces descendants subissent ensuite une mutation qui modifie leurs caractéristiques. Finalement, après évaluation des descendants (en général on calcul le coût associé à chaque individu) On sélectionne les individus formant la nouvelle population. La sélection peut se faire uniquement sur les descendants ou en tenant compte également des parents. LSIIT-ICPS
12
Algorithmes évolutionnaires
Il y a plusieurs familles d ’algorithmes évolutionnaires. Les algorithmes génétiques sont les plus généraux, alors que les stratégies d ’évolution et l ’évolution différentielle utilisent eux une représentation toujours réelle pour les individus. Au niveau des opérateurs de croisement, il en existe un très grand nombre. L ’objectif est de mélanger les caractéristiques génétiques des individus qui participent au croisement. Dans l ’exemple, ici, on peut voir les individus comme une suite de 9 bits ou un vecteur de 9 réels. En ce qui concerne la mutation, dans le cas des algorithmes génétiques, chaque caractéristique d ’un individu mute avec une certaine probabilité, tandis que dans les stratégies d ’évolution on ajoute un vecteur suivant une distribution multinormale, de moyennes nulles et dont les écarts types sont intégrés dans les individus, subissant eux-mêmes le processus de l ’évolution. L ’évolution différentielle a une phase de reproduction un peu particulière. LSIIT-ICPS
13
Algorithmes évolutionnaires
Reproduction dans l’évolution différentielle Pour chaque individu aj on engendre un individu intermédiaire a"j en lui ajoutant deux vecteurs différentiels. L ’un qui va l ’attirer vers le minimum courant, la vitesse à laquelle on se rapproche du minimum courant est contrôlée par le coefficient gamma. Le second vecteur perturbe lui la descente, les deux individus qui le définissent sont tirés aléatoirement dans le reste de la population et le coefficient F contrôle la vitesse à laquelle on s ’éloigne de la zone du minimum courant. Les deux coefficients sont compris entre 0,1 et 1. Finalement, le descendant est obtenu par croisement de aj avec son individu intermédiaire. Pour ce qui est de la sélection, celle-ci est déterministe ou probabiliste pour les algorithmes génétiques et déterministe pour les stratégies d ’évolution et l ’évolution différentielle. En particulier dans l ’évolution différentielle on garde l ’individu de coût minimum entre chaque individu de départ et son descendant. LSIIT-ICPS
14
Parallélisations Parallélisation à gros grain
Sous-Populations SP1 SP2 Population Division SP4 SP3 Parallélisation à grain fin Processeurs Pour paralléliser un algorithme évolutionnaire, il y a principalement deux approches : La première à gros grain, consiste à diviser la population en autant de sous-populations que de processeurs, chaque processeur exécutant ensuite l ’algorithme considéré sur sa sous-population. Il peut éventuellement y avoir des communications afin de permettre la migration d ’individus entre sous-populations. La seconde approche, qui est à grain fin, se traduit par un algorithme dit data-parallèle. Elle repose sur la distribution de la population à raison d ’un individu par processeur et la parallélisation des différentes étapes de l ’algorithme évolutionnaire. A B C Individus A B C D E F Distribution D E F LSIIT-ICPS
15
Hybride recuit simulé/algorithme génétique
Hybride parallèle Combiner des algorithmes complémentaires Hybride recuit simulé/algorithme génétique Principe Algorithme génétique data-parallèle Sélection probabiliste locale avec schéma de température Le dernier algorithme considéré est un hybride data-parallèle. L ’idée de l ’hybridation est de combiner des techniques d ’optimisation complémentaires, c’est pourquoi l ’hybride recuit simulé/algorithme génétique est le plus courant. En effet le recuit simulé une recherche locale alors que l ’algorithme génétique fait une recherche globale. Dans le cadre parallèle, cela aboutit à un algorithme génétique data-parallèle dont la sélection probabiliste locale sur chaque processeur intègre un schéma de température. LSIIT-ICPS
16
Plan de l’exposé Méthodes heuristiques et leurs parallélisations
Problématique du recalage d’images médicales Étude dans le cas du recalage rigide Étude dans le cas du recalage déformable Conclusions et perspectives Passons à la présentation de la problématique du recalage d ’images médicales et en particulier des deux problèmes considérés. LSIIT-ICPS
17
Recalage d’images monomodales ou multimodales
Modalités Anatomiques IRM Tomodensitométrie Fonctionnelles Dans la définition d ’une méthode de recalage il y a différents facteurs à prendre en compte. Premièrement la nature des images que l ’on cherche à recaler, i.e. si elles sont de même modalité ou non. Il y a en effet deux catégories de modalités : les modalités anatomiques qui sont des images que permettent de bien identifier les tissus et les os, comme l ’IRM et la tomodensitométrie ; les modalité fonctionnelles qui mettent en évidence des informations physiologiques ou métaboliques, par exemple la tomographie par émission de positons et la tomographie par émission monophotonique. Lorsque l ’on cherche à recaler des images provenant de la même modalité on parle de recalage monomodale, et de recalage multimodale pour les images de nature différente. Le recalage multimodal est plus complexe car les images ne contiennent pas la même information. TEP TEMP Recalage d’images monomodales ou multimodales intra-patient inter-patient LSIIT-ICPS
18
Transformations considérées : rigide et déformable
Variété de transformations possibles Le second facteur est la complexité de la transformation recherchée pour faire le recalage. C ’est-à-dire si elle est globale (donc identique pour tous les voxels) ou locale, et surtout le nombre de degré de liberté qu ’elle autorise. Ainsi, la transformation rigide globale est la transformation la plus simple, tandis que la transformation déformable locale est la plus complexe. Nous considérons d ’une part une transformation rigide et d ’autre part une transformation déformable. Transformations considérées : rigide et déformable LSIIT-ICPS
19
Recalage dense par fonction de similarité
Primitives Primitives (informations) utilisées Informations externes au patient Marqueur Cadre stéréotaxique Informations contenu dans les images Niveaux de gris Volumes etc Recalage dense par fonction de similarité Le dernier facteur, ce sont les primitive utilisées pour effectuer le recalage. Celles-ci peuvent être externes au patient ou bien obtenues à partir du contenu des images. Par exemple les niveaux de gris des voxels, des volumes, des contours. Nous considérons des méthodes de recalage dense, c ’est-à-dire basée sur les niveaux de gris, par fonction de similarité. La fonction de similarité est une fonction de coût qui donne une information qualitative sur le recalage, de façon à ce que le meilleur recalage s ’obtient en la minimisant. (fonction de coût qui évalue la similitude entre l ’image de référence et l ’image source recalée) LSIIT-ICPS
20
Espace de transformation
Recalage rigide Paramètres Fonctions de coût à minimiser Similarité quadratique - images monomodales Information mutuelle - images multimodales Rigide : translation, rotation Tx ,Ty Espace de transformation Voyons plus en détail le premier problème : le recalage rigide. C ’est un problème qui consiste à optimiser un faible nombre de variables, trois paramètres de translation et trois paramètres de rotation. Comme fonction de similarité nous avons retenu : d ’une part la similarité quadratique qui est adaptée au recalage d ’images monomodales (I dénote l ’image de référence, alors que J représente l ’image à recaler) ; d ’autre part l ’information mutuelle que l ’on cherche à maximiser, d ’où le signe pour une minimisation, qui repose sur l ’entropie et exploite l ’histogramme conjoint des images. G et K représentent respectivement le nombre de niveaux de gris de l ’image de référence et de l ’image source. Ces fonctions de coût comportent de nombreux minima locaux et sont fortement non linéaires. LSIIT-ICPS
21
Recalage déformable Fonction de coût à minimiser
Méthode hiérarchique basée sur une modélisation paramétrique multirésolution des déformations Musse & al. 1999 Espace de transformation Déformation paramétrée Fonction de coût à minimiser Similarité quadratique - images monomodales Le second problème est le recalage déformable La méthode considérée est une méthode hiérarchique basée sur une modélisation paramétrique multirésolution des déformations. Dans ce contexte, on cherche le champ de vecteur de déplacement d qui minimise la fonction de similarité. Le champ étant optimisé suivant une approche hiérarchique en s ’appuyant sur une analyse multirésolution tridimensionnelle. LSIIT-ICPS
22
Recalage déformable Projection du champ au niveau de résolution
Optimisation de variables ( de degré 1) Le champ de vecteur est ainsi projeté à chaque niveau de résolution sur une base de fonctions qui sont des beta-splines. A l ’issue de la projection, trouver le champ d qui minimise le fonction de similarité revient donc à optimiser les variables alx, aly, et alz. Du fait de l ’accroissement de la résolution, le nombre de variables à optimiser croît également, comme on peut le voir dans ce tableau pour le recalage d ’IRM 1283 voxels. A la résolution un il n ’y a qu ’un vecteur de déplacement, commun à tous les voxels, puis à mesure que la résolution augmente, le champ de vecteur est raffiné, de sorte que le taille des blocs de voxel qui sont associés au même vecteur de déplacement diminue. Ceci abouti à la résolution maximale à l ’optimisation de plus de vecteurs de déplacement, soit plus de variables à optimiser. LSIIT-ICPS
23
Plan de l’exposé Méthodes heuristiques et leurs parallélisations
Problématique du recalage d’images médicales Étude dans le cas du recalage rigide Étude dans le cas du recalage déformable Conclusions et perspectives Après avoir présenté les deux problèmes de recalage, passons maintenant à l ’étude dans le cas du premier problème : le recalage rigide. LSIIT-ICPS
24
Conditions d’expérimentations
Machine parallèle SGI Origin2000 Parallélisation par directives HPF ou OpenMP Validation des recalages - données utilisées Rigide : 20 IRM 1283 voxels Déformable : IRM 1283 et 2563 voxels D ’abord quelques mots sur les conditions d ’expérimentations, aussi bien pour le rigide que pour le déformable. La machine parallèle considérée est une Origin2000, machine MIMD comportant 32 processeurs R10000 à 195MHz et 20 processeurs R12000 à 300MHz. Les algorithmes d ’optimisation sont écrits en Fortran et parallélisé en intégrant des directives soit High Performance Fortran, soit OpenMP. Pour valider les algorithmes, nous avons utilisé : en rigide un jeu de 20 IRM 1283 voxels obtenues par décalage synthétique ; en déformable des IRM 1283 et 2563 de différents patients. LSIIT-ICPS
25
Meilleurs résultats en séquentiel
Précision obtenue et temps de calcul La précision est établie par l ’intermédiaire de la mesure de l ’écart quadratique moyen entre chaque image recalée et la solution optimale. LSIIT-ICPS
26
Meilleurs résultats en parallèle
Précision obtenue et temps de calcul LSIIT-ICPS
27
Stratégie d’évolution séquentielle
Influence de la taille de la population LSIIT-ICPS
28
Stratégie d’évolution parallèle
Description - communications induites LSIIT-ICPS
29
Stratégie d’évolution parallèle
Convergence : version parallèle versus séquentielle LSIIT-ICPS
30
Stratégie d’évolution parallèle
Précision des recalages LSIIT-ICPS
31
Stratégie d’évolution parallèle
Performances - Similarité quadratique LSIIT-ICPS
32
Évolution différentielle séquentielle
Influence de la taille de la population Choix du data-parallélisme LSIIT-ICPS
33
Évolution différentielle parallèle
Description - communications induites LSIIT-ICPS
34
Évolution différentielle parallèle
Convergence : version parallèle versus séquentielle LSIIT-ICPS
35
Évolution différentielle parallèle
Précision des recalages LSIIT-ICPS
36
Évolution différentielle parallèle
Robustesse Description - communications induites Faible sensibilité au choix des paramètres LSIIT-ICPS
37
Évolution différentielle parallèle
Performances - Similarité quadratique LSIIT-ICPS
38
Conclusion partielle Algorithmes d’optimisation Parallélisation
Adéquation des approches évolutionnaires (multipoint) Stratégie d’évolution Évolution différentielle Parallélisation Adéquation du modèle de programmation data-parallèle LSIIT-ICPS
39
Plan de l’exposé Méthodes heuristiques et leurs parallélisations
Problématique du recalage d’images médicales Étude dans le cas du recalage rigide Étude dans le cas du recalage déformable Conclusions et perspectives LSIIT-ICPS
40
Meilleurs résultats Coûts minimum trouvés LSIIT-ICPS
41
Équation de la diffusion
Dérivées partielles de l’erreur quadratique moyenne Distribution du calcul des dérivées suivant LSIIT-ICPS
42
Équation de la diffusion
Processeurs pouvant être actifs simultanément LSIIT-ICPS
43
Parallélisation massive - Résultats
Recalage déformable d’IRM 1283 voxels Source résolution 6 Après recalage Référence LSIIT-ICPS
44
Parallélisation massive - Résultats
Recalage déformable d’IRM 2563 voxels Image source Résolution 7 Image de référence LSIIT-ICPS
45
Parallélisation massive - Résultats
Performances LSIIT-ICPS
46
Parallélisation massive - Résultats
Performances Borne supérieure de l ’accélération relative : loi d ’Amdahl LSIIT-ICPS
47
Parallélisation massive - Résultats
Performances LSIIT-ICPS
48
Plan de l’exposé Méthodes heuristiques et leurs parallélisations
Problématique du recalage d’images médicales Étude dans le cas du recalage rigide Étude dans le cas du recalage déformable Conclusions et perspectives LSIIT-ICPS
49
Conclusions Algorithmes d’optimisation parallèles
Algorithmes évolutionnaires (multipoint) en rigide Équation de la diffusion en déformable Apport du parallélisme en recalage d’images Temps de calcul réduits avec préservation de la précision Solution aux temps de calculs rédhibitoires en séquentiel Adéquation du modèle data-parallèle Bonnes accélérations Excellentes performances sur machine MIMD LSIIT-ICPS
50
Perspectives Algorithmes d’optimisation Recalage d’images médicales
Heuristiques pour guider le choix d’une méthode Meilleur jeu de paramètres Méta-optimisation Recalage d’images médicales Validation sur une base de données d’images Déformable : multimodalité, contraintes topologiques Parallélisation Modélisation théorique des algorithmes LSIIT-ICPS
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.