COAST séminaire irfu 12/05/091 Le projet COAST : avancées et perspectives en informatique. Bruno Thooris pour le groupe COAST Laboratoire d’Ingénierie.

Slides:



Advertisements
Présentations similaires
CRÉER UNE APPLICATION INTERNET RELIEE A UNE BASE DE DONNEES
Advertisements

1 HPC et Windows 2003 CCS pour les développeurs Visual Studio 2005.
LObservatoire Virtuel au CRAL H. Wozniak 5 avril 2005.
Aurélien CRIDA directeur : A. MORBIDELLI
Résumé du projet ACCIOM soumis au labex Acronyme du projetACCIOM Titre du projet en français Centre interdisciplinaire pour la modélisation et le.
Le Grid Computing Par Frédéric ARLHAC & Jérôme MATTERA.
Le Grid Computing et son utilisation dans les entreprises et les industries Laurent CANTONE Résoul UNAL.
Simulations numériques des plasmas astrophysiques au DAPNIA Projet SNOOPY Simulations numériques des plasmas astrophysiques au DAPNIA Projet SNOOPY Edouard.
Journées Informatiques IN2P3/DAPNIA septembre 2006 Le projet de développements logiciels du DAPNIA pour la simulation et la visualisation des plasmas.
Informatique parallèle hautes performances
Framework Avancement au Plan Principales avancées pour les parties Ligand, Sites Actifs et Docking Processus dinstallation de.
UML (Unified Modeling Langage)
Au Accélérateur des Sciences et de lInnovation au Accélérateur des Sciences et de lInnovation BienvenueBienvenue Conception CERN – ne pas reproduire.
Chaire UNESCO - Calcul numérique intensif
CESAR-LCPC DECOUVERTE & MODELISATION
Effets denvironnement sur la formation stellaire à léchelle des galaxies Marie Martig sous la direction de Frédéric Bournaud CEA-Saclay/SAp Semaine de.
Atelier ADOMOCA Nov 2007 Hervé Le Berre Larborescence du projet Mocage.

Analyse des besoins en informatique du SRI
Franck Cappello CNRS, LRI, Université Paris-sud
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
Présentation du mémoire
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks VO Fusion Pierrick Micout, CEA - DAPNIA.
Le programme scientifique du CERN Un voyage à travers les accélérateurs du CERN P.Bloch, PH Dept.
Lastronomie et astrophysique à lUniversité de Montréal Lenseignement et la recherche Laboratoire dastrophysique expérimentale (LAE) Observatoire du mont.
L’adaptativité pour un solveur de l’équation de Vlasov
Soutenance de stage 16 Mai au 5 Août 2011
Soutenance de stage 16 Mai au 5 Août 2011
Soutenance de stage 16 Mai au 5 Août 2011
Plan Définitions et exemples Composants de cluster
Plate-forme MIRAGE Méso-Informatique Répartie pour des Applications en Géophysique et Environnement.
Calcul parallèle => partitionner les données en sous-groupes associés aux processeurs. P0 P2 P1.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Comment on fait de la recherche en astrophysique Fabrice Mottez, Centre d’étude des Environnements Terrestre et Planétaires CNRS/Université de Versailles.
Université Pierre et Marie Curie (P6) et Université Paris Diderot (P7)
Introduction aux solutions Microsoft pour le HPC.
Traitement des données spatiales à l’IAS 13/05/14SPU GT Traitement des données spatiales.
Projet CiGri CIMENT GRID Grille grenobloise pour la simulation numérique par méthodes de Monte Carlo Laurent Desbat (coordinateur scientifique) et Nicolas.
L’enseignement de spécialité SLAM
Journées collectives Projets/Labos/Dir-IN2P3 PHENIX F. Fleuret, LLR 05/07/20071 Journées Projets/Labos/Dir-IN2P3 PHENIX.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
Nouvelle technique de simulation pour la formation des galaxies
Point sur l'utilisation des moyens de calcul à court terme et stratégie à moyen terme Marie-Alice Foujols Pôle de modélisation du climat IPSL.
PaCO++ André Ribes Réunion Hydrogrid Rennes 15/09/03.
PROJET CAPS Compilation, Architecture, Parallélisme et Système.
Groupe XXX Bilan Tourniquet Section novembre 2013
Ressources calcul 2008 GENCI PRACE IDRIS : brodie NEC SX-8 - vargas IBM Power6 CCRT : mercure NEC SX-8R - GIEC NEC SX-9 platine Bull Itanium / Nehalem.
21/02/2003DEA DISIC 1 Grid Computing Programming the grid: Distributed Software Components, P2P and Grid Web Services for Scientific Applications Tarak.
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes, C. Pinazo Juin 2015.
1 Le stage informatique du LAL et IPN Antoine Pérus Christian Arnault Michel Jouvin Françoise Lefebvre Laurent Garnier.
Visualisation des flots optiques en 3D
L’arrivée des versions parallèles des modèles de l’IPSL Adapter les codes aux architectures multiprocesseurs des futures machines afin d’améliorer les.
Le programme scientifique du CERN Un voyage à travers les accélérateurs du CERN PH Department.
Online : Electronique ou informatique ? JI Online : Electronique ou informatique ?
Le programme présent  GLAST (2008, calorimètre, calibration, logiciels, LLR,CENBG,LPTA )  13 chercheurs, 2 IR, 4 thèses, 2 post docs  ¼ des coordinateurs.
Les cartes graphiques Leur partie software.
TOUT SAVOIR SUR L’OFFRE INFORMATIQUE NOTRE PARTENAIRE : DELL.
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes UMS 3470 Pytheas C. Pinazo UMR 7294 MIO Juin 2015.
PetaSky: Expérimentations avec HadoopDB et Hive 1 Amin Mesmoudi.
5 mai 2008J-P Meyer1 Eléments de réflexion pour une ressource d’analyse - Trois exemples de travaux d’analyses effectuées à l’IRFU dans ATLAS: 1) AOD –>
Contrôle, configuration et acquisition de données à l’Irfu Laboratoire d’Ingénierie Logicielle pour les Applications Scientifiques.
Entretiens Louis le Grand 29 et 30 août Entretiens Louis le Grand – 29 et 30 Août 2005 Étude de cas CS  Jacques DUYSENS (CS Communication & Systèmes)
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
CMS Double Chooz HESS Edelweiss Herschel ALICE Detecting radiations from the Universe. L’INFORMATIQUE À L’IRFU Surget Joël.
JOURNÉE CALCUL ET SIMULATION DE L'UNIVERSITÉ PARIS SUD Organisée par le Groupe de Travail Informatique Scientifique de Paris Sud.
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
 Lois et constituants de l'Univers 1. Astroparticules, astrophysique nucléaire, cosmologie 2. Physique hadronique et nucléaire 3. Physique des particules.
Centre de Calcul de l’Institut National de Physique Nucléaire et de Physique des Particules Table Ronde : Quelles orientations pour le CC ? JP2015, Autrans.
Ecole Informatique 2010 La Programmation des Architectures Multi-cœurs Cécile Barbier Fatih Bellachia Alain Masserot.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
Transcription de la présentation:

COAST séminaire irfu 12/05/091 Le projet COAST : avancées et perspectives en informatique. Bruno Thooris pour le groupe COAST Laboratoire d’Ingénierie Logicielle pour les Applications Scientifiques CEA/Irfu/Sédi/Lilas - Saclay

2COAST séminaire irfu 12/05/09 Le projet COAST (1) Création en 2005: programme IRFU de calcul hautes performances lié aux simulations numériques en astrophysique Equipe mixte d’astrophysiciens du SAp et d’ingénieurs du Sédi/Lilas Les activités informatiques de COAST correspondent aux missions du Lilas: –développement, optimisation et parallélisation de logiciels –méthodes numériques –outils de visualisation –bases de données –gestion des sources En 2009, le projet est lié à 3 collaborations ANR et 2 projets européens COAST pour COmputational ASTrophysics

3COAST séminaire irfu 12/05/09 Le projet COAST (2) En 2009, 29 personnes, –au SAp, 24 permanents, thésards et post-docs –au Sédi, 2 FTE, 1 CDD et 3 PTE Une dizaine de codes de simulation numérique 3D en magnétohydrodynamique 4 domaines de physique (Cosmologie, Milieu interstellaire, Physique stellaire, Disques protoplanétaires) 2 millions d’heures CPU par an sur les supercalculateurs parallèles ( hors grands challenges ) R. TeyssierE. AuditF. BournaudAS. BrunF. MassetS. CharnozS. Fromang … D. PomarèdeB. ThoorisY. FidaaliJ-P. LefèvreF. ChâteauP. Kestener

4COAST séminaire irfu 12/05/09 Les simulations numériques à l’IRFU La simulation des plasmas astrophysiques: un des trois piliers du programme scientifique du SAp avec les projets de détecteurs spatiaux et d’observatoires terrestres L’objectif scientifique est la compréhension de la formation des structures observées dans l’Univers : Structure et distribution des amas de galaxies à partir des conditions initiales du Big Bang Dynamique des nuages moléculaires où se forment les étoiles Magnétohydrodynamique stellaire Formation des systèmes protoplanétaires Collisions de galaxies Turbulence dans les disques d’accrétion

5COAST séminaire irfu 12/05/09 Les codes numériques Quelques codes développés à Saclay : – RAMSES ( R. Teyssier & al. ) étude multi-échelles de la formation des structures de l’univers solution de l’interaction de la Matière Noire avec le gaz baryonique hydrodynamique et systèmes à N-corps, gravitation, MHD Maillage à raffinement adaptatif en octree (AMR) – HERACLES ( E. Audit & al. ) formation et dynamique des nuages moléculaires Hydrodynamique et transfert radiatif – ASH ( A.S.Brun & al. ) magnétohydrodynamique du Soleil collaboration avec U. of Colorado – JUPITER ( F. Masset ) études des forces de marées disque-planètes hydrodynamique 3D Ces codes partagent des caractéristiques communes –F90 (ou C), parallélisés avec la librairie MPI –Emploi de solveurs d’équation type Riemann ou Godunov –Maillage spatio-temporel sur des grilles cartésiennes fixes (HERACLES, ASH) ou à résolution adaptative (RAMSES, JUPITER)

6COAST séminaire irfu 12/05/09 Collaborations et financements extérieurs 3 ANR –HORIZON cosmologie (R. Teyssier, ) IRFU, INSU, CNRS, IAP,.. –MAGNET MHD (E. Dormy, ) ENS, IRFU, CETP –SINERGHY Rayonnement, gravitation, hydro en physique des plasmas (E. Audit, ) IRFU, CELIA 2 financements européens –STARS 2 Soleil et Etoiles: ERC Starting Grant ( A. S. Brun, ) –ASTROSIM: ESF funded network ( R. Teyssier, )

7COAST séminaire irfu 12/05/09 Ressources utilisées par COAST Local : –DAPHPC, a 256 cores Opteron Cluster (24 nodes with 8GB memory, with an Infiniband interface). National : –Platine, CEA/CCRT, ranking 63 rd in the TOP500 (nov 2008) : Bull Novascale 3045, 7456 Itanium cores, 47.7 Tflops, 23 TB mem Europe : –MareNostrum at the Barcelona Supercomputing Center, ranking 40 th in the TOP500 (nov 2008): IBM PowerPC 2.3 GHz cores, 94.2 Tflops, 20TB of main memory National : –Babel, CNRS/IDRIS, ranking 16 th in the TOP500 (nov 2008) IBM BlueGene/P, PowerPC cores, 139 Tflpos, 20 TB memory National : –Jade, GENCI/CINES, ranking 14 th in the TOP500 (nov 2008) SGI, cores National : –CEA/GENCI 300 Tflops Bull NovaScale supercomputer : combination of 8544 intel cores (100 Tflops) and 48 GPU nodes (200 Tflops), 25 TB memory, 1PB storage

8COAST séminaire irfu 12/05/09 Les challenges Ramses: la simulation MareNostrum La simulation ‘Galaxy Formation’ 2006 sur MareNostrum au BSC code Ramses: version N-corps + hydrodynamique = 1 milliard de particules, 4 milliards AMR cells 2048 processeurs utilisés, 64 processeurs dédiés aux I/O 3 semaines de calcul ( heures CPU) 1 output = GB (20 TB of data généré et stocké) ( R. Teyssier et al. )

9COAST séminaire irfu 12/05/09 Les challenges Ramses: la simulation Horizon Le ‘grand challenge Horizon’ été 2007 sur Platine au CCRT  Simulation des futurs relevés par weak-lensing de DUNE ou LSST  1 ère simulation de la moitié de l’Univers observable code Ramses: version N-corps (matière noire) 70 milliards de particules, 140 milliards de mailles la plus grande simulation N-corps jamais réalisée 6 niveaux de raffinement (résolution formelle de ) 2 mois de calcul sur 6144 cpus ( heures CPU) 1 output = 4TB ( R. Teyssier et al. )

10COAST séminaire irfu 12/05/09 Le logiciel de visualisation de COAST: SDvision Développé au Lilas (Daniel Pomarède) pour la visualisation des résultats de simulation de COAST (présentation à suivre d’Yncia Fidaali) Mais utilisable (et utilisé) dans d’autres labos d’astrophysique ou dans d’autres domaines

11COAST séminaire irfu 12/05/09 –choix du format HDF5 (Hierarchical Data Format) développé par le NCSA (National Center for Supercomputing Applications, USA) –libre, open source, portable, F90/C/C++/Java interfaces –la librairie est optimisée pour lire et écrire efficacement sur des systèmes de calcul parallèle, pas de limite de taille –Deux objets de base : datasets (tableaux) et groupes (structures) –Utilisé comme standard d’entrée de Sdvision Gestion des données: le format HDF5

12COAST séminaire irfu 12/05/09 La base de données Odalisc  Le Projet ODALISC (Opacity Database for Astrophysics, Lasers experiments and Inertial Fusion Science): mise en place d’une base de données d’opacités et d’équations d’état pour les communautés d’astrophysique et de la physique des interactions plasma/laser collaboration avec le CELIA Bordeaux MySQL Web-service TOMCAT Installée à l’IRFU Fichiers HDF5 ( avec en ligne des outils de lecture, de création de fichiers et de visualisation en IDL) BdD ouverte à la communauté des physiciens des plasmas astro et lasers (Jean-Paul Le Fèvre, Franck Delahaye, Bruno Thooris)

13COAST séminaire irfu 12/05/09

14COAST séminaire irfu 12/05/09 Implémentation, optimisation et parallélisation Les codes sont mis au point sur le cluster daphpc local mais la production se fait sur les supercalculateurs Pour les grandes simulations de Ramses, il a fallu une adaptation du code d’abord sur MareNostrum, puis sur la machine Platine du CCRT ( en particulier pour la librairie MPI) Avec l’arrivée du Bluegene/P de l’IDRIS et du SGI du CINES, l’adaptation à l’architecture demande plus de travail (MPI + OpenMP) Une R&D sur le portage de nos codes sur les GPUs a été réalisée pour une évaluation des performances et de la programmation sous CUDA, en vue du portage sur le futur cluster de GPUs au CCRT L’arrivée des machines de type Roadrunner (# procs, 1.37 PFlops ) à base de Cells nous oblige aussi à regarder de près les problèmes de portage et de programmation liés, d’où la R&D actuelle sur les Cells

15COAST séminaire irfu 12/05/09 Courtesy of Jack Dongarra

16COAST séminaire irfu 12/05/09 Du boulot pour les développeurs (1) Il faut savoir utiliser au mieux les dernières machines pour obtenir les meilleurs résultats de simulations Evolution de la loi de Moore: le nombre de cœurs/nœud X2 tous les 2 ans, alors que la vitesse des chips stagne –Les pbs de Hardware sont remplacés par des pbs de Software ! On ne peut pas attendre les nouveaux langages parallèles (Chapel, X10, Fortress,…) si ils arrivent un jour… Notre grande chance: avoir accès à tous les nouveaux types de machines: –Babel(BlueGeneP de l’IDRIS) pour production –Jade(SGI du CINES) pour production –Machine GENCI (CCRT) depuis avril… –IBM Power6(SARA,NL), CRAY(Julich,D), MariCel(Barcelone) prototypes PRACE pour tests

17COAST séminaire irfu 12/05/09 Du boulot pour les développeurs (2) 3 nouveaux types de supercalculateurs –Les Multicores: IBM BlueGene, SGI, CRAY, IBMPower6 un seul degré de programmation mais MPI+OpenMP –Les hybrides GPUs: pour le moment en CUDA (+HMPP?), 2 niveaux de programmation; dépendance à NVIDIA… Nous avons maintenant accès à la machine hybride GPUs au CCRT… –Les hybrides Cells: 3 degrés de programmation pour le Roadrunner de Los Alamos, le 1 er au TOP500, processeurs mais IBM semble perdre le marché des PS3…

18COAST séminaire irfu 12/05/09 Courtesy of Jack Dongarra

19COAST séminaire irfu 12/05/09 Les développements et évaluations effectués Passage d’Heracles en MPI+ OpenMP (Ingmar Vierhaus) –Premiers runs sur processeurs de Babel (BluegeneP, 4 cœurs/noeud) et sur Jade (SGI, 8 coeurs/noeud) Passage d’algorithmes et évaluation du passage de codes sur GPUs (Frédéric Château, Pierre Kestener, Alexis Koutero) –Gain d’un facteur 50 sur des algos d’hydro ou d’imagerie –Tentative de passage d’un code complet d’astro existant (Fargo) : il faudrait réécrire le code  –Apprentissage de CUDA + HMPP –Aucune portabilité du code modifié Evaluation du passage de Fargo par Jean-Paul Le Fèvre sur le prototype Cells du CINES: même conclusion, il faudrait réécrire le code  –Quelques tests sur le prototype MariCel de Barcelone et une bonne migraine

20COAST séminaire irfu 12/05/09 Visibilité des développements informatiques Film stéréo ‘Cosmo3D’ projeté au Palais de la Découverte dans le cadre de l’expo ‘Voyage au centre de la Galaxie’ du 2 février au 3 mai –Réalisé avec notre logiciel SDvision à partir des résultats des simulations numériques du SAp Film 2D COAST à Supercomputing en 2007 et Depuis 2005, une douzaine de présentations ont été faites par le Sédi dans des conférences internationales en Visualisation, High Performance Computing et Simulation. Présentation des activités informatiques du projet aux Journées Informatiques de l’IN2P3/IRFU à Obernai en septembre Organisation de la conférence ASTRONUM en 2007 et en 2009

21COAST séminaire irfu 12/05/09 Perspectives pour le Lilas (1) Optimisation et parallélisation des codes pour le passage sur les supercalculateurs multicores (MPI+OpenMP) => besoin vital ! –Après Héracles, il faut aussi adapter Ramses et d’autres codes Grand challenge GPU au CCRT ( Pierre Kestener & Frédéric Château) –En collaboration avec l’Université de Strasbourg (D. Aubert) –Ecriture d’un code 3D d’hydro+transfert radiatif+N-corps pour la cosmologie directement en CUDA ( ~Ramses sans AMR ) –But : grosse simulation de cosmo dans le cadre d’un Grand Challenge sur la nouvelle machine hybride du CCRT en 2009 –À noter : première écriture directe d’un code d’astro au Sédi par des ingénieurs => besoin d’expertise en software pour de nouvelles avancées en HPC

22COAST séminaire irfu 12/05/09 Perspectives pour le Lilas (2) Développements dans SDvision: –Algorithmes de visualisation adaptés aux AMR (Ramses) –Visualisation des résultats des codes Multigrilles (Jupiter et Heracles) –Algorithmes spécifiques au maillage sphérique du code ASH –Parallélisation avec mpiDL –Et bien d’autres idées… Production d’analyses avec SDvision sur le tout nouveau cluster graphique du CCRT, le cluster ‘Césium’ qui comporte : –2 nœuds de login (8 cœurs, 64Go mém, carte graphique NVIDIA FX5800) –30 nœuds de calcul (8 cœurs, 64Go mém, carte graphique NVIDIA FX5800 –8 nœuds ‘grosse mémoire’ (8 cœurs, 128Go mém, carte graphique NVIDIA FX5800 –100 Tera de disque partagé

23COAST séminaire irfu 12/05/09 Perspectives pour le Lilas (3) Développement du code Sineghy1D avec ses logiciels de pré et post traitement Création de la base de données de STARS 2 Projet ‘Saturne’ avec A. Brahic & S. Charnoz: simulation et visualisation des anneaux de Saturne, comparaison avec les images de Cassini Tests et production de films pour écrans auto-stéréoscopiques Poursuite de la collaboration avec l’IRFM sur la visualisation des simulations du plasma d’ITER par le code Gysela Et plus si affinités…

24COAST séminaire irfu 12/05/09 Conclusions Le fonctionnement en équipe mixte marche bien Sujets de pointe en informatique (problèmes de taille des données, portage sur technologies nouvelles) SDvision développé localement: adaptation à tous les types d’analyse et sorties des images et des films 2D et 3D stéréo pour la communication L’ambition: déborder du cadre de l’astrophysique pour créer un pôle d’activités de calcul hautes performances et de visualisation qui puisse traiter aussi d’autres domaines de physique à l’IRFU et au CEA Grosse effervescence dans le domaine des calculateurs parallèles, et pas seulement dans le gigantisme, mais aussi dans de nouvelles technologies => profitons-en !

25COAST séminaire irfu 12/05/09 Merci de votre attention la suite pour Yncia…

26COAST séminaire irfu 12/05/09 Le passage sur BluegeneP Optimisation du code Heracles sur le BlueGeneP de l’IDRIS: adaptation à l’architecture de la machine Babel –La configuration de l'IDRIS comporte 10 racks –Chaque rack comporte deux mid-plane soit 2048 coeurs ou 512 noeuds de calcul –Chaque mid-plane contient 16 node card qui comporte 32 noeuds de calcul, chaque nœud de calcul étant constitué de 4 coeurs. – Il y a 1 nœud I/O pour 64 noeuds TOTAL nœuds soit cœurs PowerPC  Introduction d’une couche OpenMP en + de MPI pour l’optimisation des 4 cœurs/nœud  Travail de Ingmar Vierhaus