Relations Supercalculateurs et Réseaux Dominique Boutigny Prospective Nationale sur les Grilles de Production.

Slides:



Advertisements
Présentations similaires
Jeudi 12 decembre 2007 Le CC-IN2P3 Un instrument informatique de pointe au service de la recherche Traitement intensif de données et Sciences de la Vie.
Advertisements

Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
Vendredi 23 mars 2007 Le CC-IN2P3 Un instrument informatique de pointe au service de la recherche.
Jeudi 8 Février 2007 REMISE DES PRIX de la Fondation Louis Leprince Ringuet Conception et évaluation d’un algorithme de tolérance aux fautes par points.
LHC Computing Grid Infrastructure de Grille à l'IPHC Yannick Patois.
Mardi 7 octobre 2008Prospective Nationale sur les grilles de Production Rapport du GT 6 Pierrick Micout CEA.
Marid 5 décembre 2006Présentation du code parallèle – PEGASE – INRIA Sophia-Antipolis 1 Code Parallèle pour la Simulation Numérique en Mécanique des Fluides.
1 Stéphane JEZEQUEL 23 Juin 2008 Analyse des données LHC dans ATLAS S. Jézéquel.
Journées Grille Lille, 17 mai Applications de la grille à la télédétection et à la modélisation des aérosols atmosphériques Un retour d'expérience.
Cloud computing Présenté par Robert Ogryzek, Teddy Frontin, Kevin Lambert et Matthew Cronne.
Gestion des données issues des réseaux de mesures de la qualité : densification et besoin de flexibilité SIG, Géo-traitements.
INFSO-RI Enabling Grids for E-sciencE L’activité EGEE au CINES Nicole Audiffren, Adeline Eynard et Gérard Gil Réunion de la fédération.
Fonctionnement interne d'un routeur (kurose p ) Eugen Dedu IUT Belfort-Montbéliard, R&T1, France avril 2009.
Xen et l' Art de la Virtualization Antoine Nivard Responsable technique Adéquat région Ouest Responsable de Site francophone de XEN Computer.
21 septembre 2005Présentation Groupe développements du SI Le groupe développements du service informatique du LAL 21 septembre 2005 (Guy Le Meur)
Perspectives Cloud dans le cadre du projet EQUIPEX CAPRI 1 décembre 2011 Dominique Boutigny.
Réseau LCG-France LCG France 11/2008 Centre de Calcul de l'IN2P3/CNRS.
Guy Wormser,Colloque National de Prospective s Conclusions du colloque de prospective La démarche Le colloque et ses documents Vers le livre blanc.
Compilation des productions des élèves : ● Axel, Jean-pierre, Rostome et Théo de 2V ● Mélissa, Sarah, Rayane et Théophile de 2P peut_on prévoir scientifiquement.
e-Prelude.com Analyse globale du flux
Rencontre LCG France, LPSC , Juin 2016
Les P G I Les Progiciels de Gestion Intégrés
Albertine DUBOIS et Alexandre LIEGE
La Grille de Calcul du LHC La Grille de Calcul du LHC
Plateforme CountrySTAT
Journée Analyse D0, 19 janvier 2004
Laboratoire d’Informatique Système
Lustre au DAPNIA.
Rapport sur département SPU
Statique 1 STM Conception Mécanique La mécanique branche de la physique qui étudie le mouvement des corps et les forces auxquelles ils sont soumis. La.
Colloque Grille Rhône-Alpes
Réunion Analyse D0 France au CCIN2P3 19 janvier 2004
Les nouveautés dans les modèles de Calcul au LHC
Vue d'ensemble de l'utilisation du CCIN2P3 par les expériences LHC
Un instrument informatique de pointe au service de la recherche
Classification des archtecutres paralleles
Bilan financier – feuille de route
Projet « France Tier-2 » et les conséquences pour France Grilles
POSITIONNEMENT CNES SUR LISA
2ème coloque LCG-France
Laboratoire Univers et Particules de Montpellier
Statut du T2 Île de France
CeMEB La plateforme MBB
Les besoins des applications
L’exploitation des données du collisionneur LHC: un défi pour le calcul scientifique un enjeu pour le LAPP S. Jézéquel.
Le Projet GRIF Efficient Handling and processing of
CeMEB La plateforme MBB
Présentation du Service Informatique
La grille de calcul EGEE
Informations Comité des utilisateurs du mésocentre
Organisation LCG-France Lien avec le computing LHC
France Grilles Formation DIRAC janvier 2018.
Programme financé par l’Union européenne
L’accès Français aux données spatiales Copernicus
Équipe des Martres-De-Veyre La démarche d’investigations au cycle 3
Infrastructure Opérationnelle d’EGEE
INTRODUCTION A LA SPECTROSCOPIE
MPR - Le concept de réseau - 06
Introduction à la Grille
GRIF : Site EGEE au Service de la Recherche en IdF
Mésocentre de calcul et de stockage ouvert sur la grille EGEE (MUST) LAPP/ Université de Savoie / EGEE.
Plateforme CountrySTAT
Un cloud de production et de stockage
Janvier 2019 IA-IPR Physique-Chimie
Conseil de Groupement de France-Grilles le 22/11/ RENATER
Encadré par : M. Mohammad EL GHABZOURI Elaboré par : - AZEGAMOUT Mohamed - ABOULKACEM abdelouahed - GOUN Ayoub EXPOSÉ Sous le thème : SER 2018 Parallélisme.
JRES-Mrseille, 9 décembre 2005
Mise en place d’un Plan de Gestion des Données au GANIL
Michel Jouvin LAL/Orsay
Transcription de la présentation:

Relations Supercalculateurs et Réseaux Dominique Boutigny Prospective Nationale sur les Grilles de Production

Remerciements Groupe de travail « Infrastructure du calcul intensif » du colloque «Penser Pétaflops » Michel Kern (DGRI) Dany Vandromme (Renater)

Constatation: Grille et HPC - 2 mondes différents Communautés à priori différentes Supercalculateurs: Météo – Climat – Mécanique des fluides – Grandes simulations d’astrophysique… Grilles Physique corpusculaire – Biomédical… …mais quelques passerelles: Sciences de la terre Chimie Fusion

2 mondes différents Architecture de calcul très différentes Grilles Clusters de PC Parallélisme non couplé Supercalculateurs Machines massivement parallèles Couplage massif entre les processeurs Par contre une problématique autour des données présente dans les 2 communautés Les masses de données ont probablement été l’élément déclenchant pour la mise en place d’une architecture de grille pour le LHC

Grilles de supercalculateurs Teragrid aux USA 11 sites – 750 Tflops – 30 Po DEISA en Europe 10 sites Infrastructure de calcul distribué dotée d’un système de stockage global Nature des calculs effectués  Architecture différente de celle des grilles de production

(Maximilien Brice, © CERN) Masse de données

Un exemple: Simulation météo haute résolution 13 mai Mécanique des fluides + physique en chaque point de calcul: Thermodynamique, rayonnement, turbulence… Code développé par un consortium de labos: ~20 chercheurs sur 10 ans Situation actuelle: ~100 Matrices 500 x 500 x 100 x 64 bits ~ 150 sorties x 20 Go chacune évolution temporelle Stockage Visualisation 1 projet  10 à 20 To disponibles pendant 4 à 5 ans Crédit: Patrick Mascart

Simulation météo haute résolution 13 mai Sur une machine Pétaflopique doublement de la taille de la grille et division du pas temporel par 2  Mémoire x8 - CPU et stockage x16 En 2009 sur les nouvelles machines nationales Triplement de la taille de la grille… Les estimations de ressources nécessaires sont complexes à extrapoler mais on voit qu’il faudra de toutes façons faire face à une augmentation exponentielle du stockage À terme: quelques pétaoctets pour chaque simulation

Un autre exemple: La QCD sur réseau (LQCD) Crédit: Jaume Carbonell Première étape: réalisée sur des supercalculateurs Espace-temps discrétisé sur un réseau ×256  ~Pétaflop nécessaire Stockage des configurations sur une grille de données (SRB) – Mise à la disposition de la communauté mondiale Deuxième étape: Calcul des propagateurs sur des clusters classiques – Éventuellement sur une grille de calcul Stockage des propagateurs sur une grille de données (SRB) Troisième étape: Calcul des observables – Moyenne sur les propagateurs  Architecture classique avec de relativement grandes mémoires

Physique des hautes énergies Les expériences LHC vont produire jusqu’à 15 Pétaoctets de données chaque années  Grille LCG L’enjeu du calcul LHC réside essentiellement dans la distribution et le stockage des données 11 Tier-1 60 Tier-2 Tier-3 LHC

Parallélisme couplé/ Grille Le calcul parallèle nécessite des réseaux à très faible latence Applications MPI distribuées géographiquement  anecdotique Par contre on peut envisager de soumettre des calculs parallèles sur des centres HPC à partir de l’infrastructure de grille Le calcul est effectué sur le calculateur parallèle, seule la soumission est faite en utilisant l’intergiciel de grille  Définir correctement le « Computing Element » Lien avec DEISA / Teragrid

Exemple: Projet WISDOM (cf: Vincent Breton) Docking moléculaire sur la grille Calcul de Dynamique Moléculaire sur une architecture HPC Projet en cours dans le cadre du LIA France – Corée: FKPPL

Conclusion sur les relations Grilles – Supercalculateurs La communauté des grilles de calcul a développé un système sophistiqué de distribution des données La communauté des utilisateurs de supercalculateurs pointe la nécessité de développer considérablement les moyens de stockage en parallèle avec l’augmentation de la puissance de calcul La distribution des données produites par les grandes machines parallèles sur une grille, renforcera l’interaction entre Supercalculateurs – Mésocentres et Grilles de calcul Un rapprochement des communautés est nécessaire  Voir présentation de Françoise Genova

Relation avec les réseaux Architecture réseaux RENATER 5

Exemple d’architecture mise en œuvre par RENATER pour LCG 23 septempbre Tier2 GRIF backup à travers le Tier1 KIT Karlsruhe Strasbourg Paris 10Gb/s autres Tier2s Tier2s français 2x 2,5Gb/s 10Gb/s Lyon

La technologie optique DWDM (multiplexage en longueur d’onde) permet de déployer des liaisons à n × 10 Gb/s entre les grands sites Déplacer de grande quantité de données n’est plus un problème  Même à une échelle internationale Ceci favorise grandement l’utilisation de grilles de calcul  Production des données auprès des grands instruments (y compris supercalculateurs)  Post-traitement sur la grille ou dans les mésocentres

Recommandation sur les réseaux Maintenir une collaboration étroite entre les projets de calcul et RENATER Garantir les financements nécessaires pour RENATER sur le long terme Quantifier les besoins en terme de bande passante des utilisateurs finaux, à priori beaucoup plus dispersés que dans le cas du LHC.

Remarque sur les architectures des calculateurs Crédit: Sverre Jarp (CERN) Évolution vers les architecture multi / many cores Demain: 1000 cœurs dans un PC standard – pièce de base des grilles actuelles Le modèle: 1 job sur 1 cœur est voué à l’échec car beaucoup trop inefficace et inapplicable en raison de la quantité de mémoire nécessaire (2 – 4 Go / cœur) Une convergence entre les grilles et le HPC est inévitable Ce problème est un vrai défi pour certaines communautés