Méso-Grille Marseille :Simulation Intensive pour les Sciences de l’Ingénieur Issue de plusieurs Programmes Pluri- Formations dans le domaine du calcul haute perfomance pour les laboratoires de Mécanique à Marseille.(CHPM, SNIM, mmg, … ) Regroupe 6 UMR CNRS : IRPHE(Institut pour les Phénomènes Hors Equilibre)/ IM2NP(Institut Matériaux Microelectronique Nanosciences de Provence) IUSTI(Institut Universitaire des Systèmes Thermiques Industriels) LMA (Laboratoire Mécanique Acoustique) M2P2 (Modélisation Mécanique & Procédés Propres) LATP (Laboratoire d'Analyse, Topologie, Probabilités;(DS1)
Objectif : un outil de calcul de taille supérieur à celui d’un laboratoire. Accueil d’équipes de Simulation Numérique « méso echelle », … Rationalisation des moyens de calcul: -Choix hétérogènes des moyens de calcul, guidés par les besoins spécifiques de chaque laboratoire - Opération mutualisée de la grille physique - Veille technologique, R&D de gestionnaire de grille -Développement d’un outil de calcul polymorphe pour les sciences de l’Ingénieur (D.EYHERAMENDY, ECM, M.MEDALE IUSTI)
Equipe Scientifique et Technique partenaire de la Grille Gérard Henry (*) : LATP Marc Médale, Yann Jobic(*) : IUSTI Hervé Moulinec, Martine Culioli : LMA Umberto d'Ortona, Dominique Fougere : M2P2 Geoff Searby, P. Joly : IRPHE Dominique Eyheramendy, Olivier Page ECM (*) Chargés de la construction physique de la grille Chargés de la mise en place de l’outil de gestion de la grille (**) Christian Surace:OAMP/LAM Contact pour le point d'accès grille reservé
Les moyens de Calcul de la Grille (à réactualiser) LMA : Serveurt Integrity RX8640 -HP, architecture ccNuma, 16 procs Itanium2 de 64Go de mémoire IUSTI : Serveur SUN FIRE X4600, 2xSMP 8 proc double cœur, 128 Go RAM Stockage réseau : Sun Storage Tek 4320 NAS 2x2,4To LATP : Cluster de Stations Quadcore IRPHE/IM2MP : Cluster à base de noeuds opteron, Bi Processeurs,Xeon Quadcore Baie de Stockage NetAPP Choix du gestionnaire de la grille : GLOBUS
CalculateurNb CPUInterconnexionPerf. crête (1) Cluster AMD Athlon 32 bits, 1.8Ghz et 2 Ghz, 2To Stock. 54 haut débit et basse latence Dolphin/SCI(2.5Gbps) et Gigabit 200 Gflops (2) SGI Altix350 Itanium2,10x1.5Ghz 4 et 6Mocache,64GoRAM,2.5To Stockage 32Numalink192 Gflops (3) Cluster IBM-xeon,15xbi-quadX3550 3GHZ, 16,32, 64GoRAM, 12Mocache,7To Stockage 120Infiniband-SRC1,2Tflops Description 27 noeuds de calcul biprocesseurs SMP. Chaque noeud biprocesseur dispose au minimum de 1 Go de mémoire, 2 d’entre eux disposent de 2 Go. Les noeuds de calcul sont interconnectés entre eux par un réseau très haut débit et basse latence SCI/Dolphin (BP : 2.5Gbps et latence : 1.5 à 2.5 µs) Le système d’exploitation est l’OS sous l’environnement MandrakeCluster2. Un serveur virtuel (SEANODES : NFS // vertical) propose d’une baie virtuelle de stockage d’une capacité totale de 1.2 To accessible par l’ensemble des nœuds. Le cluster est connecté au réseau Phoc’ean et à la grille SNIM en Gigabit Ethernet. Les programmes sont gérés par « Open-PBS » et les clusters par « Globus ». 16 nœuds de calcul biprocesseurs SMP. Chaque nœud dispose de 4Go de mémoire RAM, et chaque processeur de 4Mo de mémoire cache. Les nœuds sont interconnectés par un switch NUMALink à 6,4 Go/s et 124 ns de latence. Le système d’exploitation est l’OS SGI propack5 (basé sur Suse). Une baie de stockage de 2.5 Tera octet est accessible à l’ensemble des utilisateurs. Le calculateur est géré comme un calculateur SMP de 32 processeurs accédant 64Go de mémoire centrale. Les codes sont parallélisés en OpenMP ou MPI et leur optimisation est facilitée les commandes « dplace » et « cpuset » Cluster IBM 16 nœuds x3550 bi-quadcore 3Ghz,12Mo cache, et 64 Go RAM. Les nœuds sont reliés en infiniband. Le nœud Maitre possède 6 disques de 300Go. Les nœuds de calcul sont reliés au serveur par Gigabit pour admin et infiniband pour calcul. Il est administré en Redhat, CFM pour le gestionnaire de nœuds et OpenPBS pour le Batch. Ce cluster sera accessible à la grille de calcul Marseille SNIM.
Quelques développement distribués au M2P2: DOOM: Distributed objects over MPI, ou développement d'outils pour faciliter le déploiement sur cluster de codes de mécanique des fluides, génie des procédés, physique des granulaires, MHD,... Umberto D'Ortona M2P2 UMR-6181 NumGRID : Numerical Grid for large scale numerical modeling : Un outil numerique de grille pour expoiler la grille et développer les applications distribuées.(ProxyMpi)D.Fougere M2P2, V.Malyshkin Université d’Etat de Novosibirsk Fire3D : Modélisation de Feux de Forets, code 3D parallel (Openmp) Dominique Morvan M2P2 UMR6181 Mars3D: Modélisation hydrodynamique code 3D Parallel (OpenMPI) Bernard Roux M2P2 Utilisation distribuée de Codes Matlab Bibliotheques scientifiques paralleles