Fabio HERNANDEZ Centre de Calcul de l'IN2P3 - Lyon

Slides:



Advertisements
Présentations similaires
CGP2P, école des mines Sous-projet V La participation du LAL au projet CGP2P DataGRID CGP2P.
Advertisements

1 HPC pour les opérations. Sommaire Quelques rappels sur Windows Compute Cluster Server Déploiement de Compute Cluster Administration de Compute cluster.
Le Grid Computing Par Frédéric ARLHAC & Jérôme MATTERA.
Le Grid Computing et son utilisation dans les entreprises et les industries Laurent CANTONE Résoul UNAL.
ISP/ASP ISP ASP Conclusion DESS Réseaux 2000/2001
Septembre 2001Y. Schutz - ALICE / WP6 France1 Activités GRILLE dALICE.
Grid France – CC In2p3 – 19/07/2001 Travaux du WP4
Nadia LAJILI DataGRID WP6 - Testbed Integration-BILAN Lyon, 12 Juillet 2001.
TESTGROUP ORGANISATION ACTIVITE OUTILS CONCLUSION.
WP10 Vincent BRETON – DataGRID France – Statut du WP10.
N. Jacq- LBP/CNRS - DataGrid France - November, 21th, 2001 Avancement du WP10 N. Jacq - LBP/CNRS marianne.in2p3.fr/datagrid/wp10.
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
User Support Sophie Nicoud DataGrid France – CPPM 22/09/02.
18 avril 2002réunion Datagrid France1 E-toile Plate-forme RNTL 2001 Environnement matériel et logiciel pour le développement et l expérimentation de grille.
DataGrid Revue Résumé de la seconde revue européenne du projet Datagrid.
Lyon/ENS DATA GRID-ATLAS ISN Grenoble 1 Portage dune application de physique sur la datagrid Application existante : –Génération/simulation/reconstruction/analyse.
Grid Information Index Service D. Calvet, M. Huet, I. Mandjavidze DAPNIA/SEI CEA Saclay Gif-sur-Yvette Cedex.
Nadia LAJILI STATUS REPORT WP6 Workshop Oxford Lyon,le 19 Juillet 2001.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
Grille Régionale Rhône-Alpes Institut des Grilles du CNRS Yonny CARDENAS CC-IN2P3 Réunion du groupe de travail grilles Projet CIRA Grenoble, le 2 Juin.
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
Etude des Technologies du Web services
SECURITE DU SYSTEME D’INFORMATION (SSI)
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
XML-Family Web Services Description Language W.S.D.L.
Module 1 : Préparation de l'administration d'un serveur
Sommaire Objectif de Peakup Principes de fonctionnement
Administrative Information Services CERN - Organisation Européenne pour la Recherche Nucléaire 27 nov Swiss Oracle User Group.
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
Soutenance de stage de fin d’études
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
Réunion plénière Ragtime 13 février 2004 Laboratoire CREATIS.
1 Architecture orientée service SOA Architecture orientée service SOA (Service Oriented Architecture)
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 1 Simulation-Reconstruction ALICE Une application pour le TestBed 0 ?
F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Le projet EU DataGrid et la participation d’ATLAS.
Centre de Calcul de l'IN2P3 - Lyon Toulouse - Lyon, 21 décembre 2004 Les projets de grille au Centre de Calcul de l’IN2P3.
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
Mastère Professionnel Systèmes de Communication et Réseaux
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
1Auteur : Oleg LODYGENSKY XtremWeb-HEP Atelier Opérations France Grille Lyon – Villeurbanne 13 et 14 octobre.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
Le noeud de grille Tier 3 LAPP.
Compte rendu Journée JOSY
F. Ohlsson-Malek Data GRID/WP6 meeting Lyon, 8 juillet 2002 ATLAS Data-Grid au CERN et au CCin2p3 F. Ohlsson-Malek, ISN-Grenoble et ATLAS-France.
DataGrid, LCG, EGEE au CC Rolf Rumler Coordinateur EGEE au CC
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
PaCO++ André Ribes Réunion Hydrogrid Rennes 15/09/03.
21/02/2003DEA DISIC 1 Grid Computing Programming the grid: Distributed Software Components, P2P and Grid Web Services for Scientific Applications Tarak.
Web Services 17/01/2009.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
Yannick Patois _ Journée du Libre _ 1er Novembre n° 1 Datagrid Une grille de calcul sous Linux Yannick Patois.
EGEODE 08/11/2006 Équipe GRID1 EGEODE EGEODE. 08/11/2006 Équipe GRID2 Plan  La géophysique sur la Grille : EGEODE  Partenariat académique  Comment.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Mardi 31 mai 2016 JJS (Java Job Submission) Soumission de jobs sur grille Pascal Calvat Centre de calcul.
EGEE is a project funded by the European Union under contract IST Job Soumission N.Lajili Seminaire Grille-21 Novembre
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
Grid au LAL Michel Jouvin LAL / IN2P3
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
Réunion des sites LCG France- Marseille juin ACTIVITES DU GROUPE ACCOUNTING FRANCE GRILLES Cécile Barbier (LAPP)
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
EGEE induction course, 22/03/2005 INFSO-RI Enabling Grids for E-sciencE Infrastructure Overview Pierre Girard French ROC deputy.
Transcription de la présentation:

La grille et DataGRID une nouvelle génération d'infrastructure informatique Fabio HERNANDEZ Centre de Calcul de l'IN2P3 - Lyon fabio@in2p3.fr IReS, 4 octobre 2002

Table des Matières Le concept de grille Architecture de grille Cas concret Infrastructure DataGRID Applications Perspectives Conclusion F. Hernandez

Le concept de grille Infrastructure matérielle et logicielle visant à fournir un accès sûr, cohérent, économique à des ressources informatiques hétérogènes distribuées géographiquement gérées de façon décentralisée Intégration massive des ressources Diversité des ressources calculateurs, dispositifs de stockage, sources de données, ressources humaines, ... F. Hernandez

Le concept de grille (suite) Diversité des besoins performances, bande passante, latence, sécurité, intégrité, fiabilité, capacité de calcul, disponibilité de services logiciel Accès à des services standards via des interfaces standards comment cacher l'hétérogénéité sans compromettre les performances? Pour se généraliser, les services proposés doivent être accessibles à des coûts intéressants et avec une certaine "qualité de service" (disponibilité, prévisibilité, ...) F. Hernandez

Le concept de grille (suite) Plusieurs profiles d'applications Calcul intensif distribué utilisation d'un grand nombre des ressources pour la résolution de problèmes qui ne peuvent être abordés avec les capacités locales Analyse des grandes quantités de données exploration des données géographiquement dispersées Calcul à la demande satisfaire des besoins ponctuels de puissance de traitement Travail coopératif visualisation de données, formation, conception distribuée F. Hernandez

Architecture de grille Diversité des applications et des utilisateurs (profile, nombre, ...) supposent des solutions différentes architectures différentes avec des services communs et plus ou moins de recouvrement Services de base authentification: établir l'identité de l'utilisateur autorisation: établir le droit d'un utilisateur à utiliser des ressources (données, CPUs, ...) communication entre tâches F. Hernandez

Architecture de grille (suite) Services de base (suite) contrôle de tâches: création, suspension, arrêt de l'exécution politiques d'allocation de ressources comptabilité de l'utilisation de ressources et mécanismes de paiement mécanismes de protection des tâches/données services de stockage (fichier, mémoire virtuelle, base de données, ...) F. Hernandez

Architecture de grille (suite) Problèmes inhérents authentification unique spécification des ressources nécessaires pour une tâche localisation des ressources disponibles gestion des autorisations réservation des ressources accès aux données distantes collecte de résultats comptabilité ... F. Hernandez

Architecture de grille (suite) Complexité des applications parallèles, interactives, multimédia, ... Les caractéristiques des ressources est très variable (temps, espace) Absence de contrôle global de l'infrastructure comment proposer et garantir un service cohérent et un certain niveau de qualité? Problèmes inhérents aux politiques de chaque site (fournisseur de ressources) sécurité, autorisations, comptabilité, budget F. Hernandez

Architecture de grille (suite) : E.g., Resource-specific implementations of basic services E.g., transport protocols, name servers, differentiated services, CPU schedulers, public key infrastructure, site accounting, directory service, OS bypass Resource-independent and application-independent services authentication, authorisation, resource location, resource allocation, events, accounting, remote data access, information, policy, fault detection Distributed computing toolkit Grid Fabric (Resources) Grid Services (Middleware) Application Toolkits Data- intensive applications Collaborative Remote Visualisation Problem solving instrumentation Applications Chimie Biologie Cosmologie High Energy Physics Environnement F. Hernandez

DataGRID Titre: Research and Technological Development for an International Data Grid Projet européen conduit par la communauté de physique des particules organisée autour du CERN Subvention: ~10 M€ sur 3 ans (2001-2003) pour des salaires partenaires apportent au moins autant Objectif: "To enable next generation scientific exploration which requires intensive computation and analysis of shared large-scale databases, from hundreds of terabytes to petabytes, across widely distributed scientific communities." F. Hernandez

DataGRID: objectif Développer un prototype du logiciel intermédiaire (middle-ware) Déployer une plate-forme de test du système Physique des particules Applications bio-médicales Observation de la terre Permettre le transfert des technologies de ce type vers l'industrie F. Hernandez

DataGRID: partenaires Partenaires principaux Partenaires associés En France: Comissariat à l'Energie Atomique (CEA-Saclay), Communication et Systèmes D'autres instituts de recherche/sociétés en Italie, Finlande, Espagne, Suède, Hongrie, Grande Bretagne, Pays Bas F. Hernandez

DataGRID: organisation Groupes de travail (work packages) Middleware WP1: Workload management (Francesco Prelz - INFN) WP2: Data management (Peter Kunszt - CERN) WP3: Monitoring services (Steve Fischer – RAL) WP4: Fabric management (Olof Barring – CERN) WP5: Mass storage management (John Gordon – RAL) Infrastructure WP6: Integration testbed (François Etienne – CNRS/IN2P3) WP7: Network services (Pascale Primet – CNRS/ENS Lyon) F. Hernandez

DataGRID: organisation (suite) Groupes de travail (suite) Applications WP8: High-Energy physics applications (Franck Harris – LHCB-Oxford/CERN) WP9: Earth observation science application (Luigi Fusco – ESA) WP10: Biology science application (Vincent Breton – CNRS/IN2P3) Management WP11: Dissemination (Maurizio Lancia – INFN) WP12: Project Management (Fabrizio Gagliardi – CERN) F. Hernandez

DataGRID: technologies de base Utilisation de Globus comme middle-ware de bas niveau Boîte à outils généraliste pour la construction de grilles de calcul développée conjointement entre Univ. Chicago/Argonne et Univ. Southern California Séparation entre services locaux (à un site/domain) et services globaux (pour la grille) Services de base utilisés dans DataGRID service d'information sécurité (authentification) gestion de ressources gestion des fichier distants F. Hernandez

DataGRID: état d'avancement Des composants middle-ware au dessus de Globus Plate-forme de test déployée sites: CERN (CH), CC-IN2P3 (FR), CNAF (IT), NIKHEF (NL), RAL (UK) première version (Testbed 1) en mars 2002 pour la démonstration aux rapporteurs de l'UE deuxième version en cours de déploiement plusieurs releases entre temps Tests grandeur réelle par plusieurs applications Physique (Atlas, CMS, D0,...), Bio-médicales (génomique), observation de la terre (analyse de données de satellite) F. Hernandez

DataGRID: état d'avancement (suite) F. Hernandez

DataGRID: état d'avancement (suite) Quelques services de base en place Authentification utilisation de l'infrastructure de sécurité proposée par Globus (certificats X509 et échanges chiffrés) autorités de certification pour délivrer des certificats aux individus/machines participant au projet Soumission et ordonnancement des travaux batch service central d'ordonnancement s'appuyant sur les gestionnaires locaux à chaque site Gestion des données catalogue et moyens d'accès aux données F. Hernandez

DataGRID: vue d'ensemble IN2P3 Computing Center ……. …… 2 1 3 Resource Broker 4 ……. …… Data transfer service User Home Laboratory Data localization service DataGRID Services CERN Computing Center F. Hernandez

DataGRID: vue d'ensemble (suite) JDL Replica Catalog Input Sandbox Job Submission Service Computing Element 1b Job Submit Event 2a 3a 4a Job Status Ressource Broker 3b 4b Site Information Provider Site Logging & Bookeeping Servicec F. Hernandez

DataGRID au CC-IN2P3 Toute la plate-forme sous Linux est accessible depuis la grille BQS (le gestionnaire de batch) gère tous les jobs Les jobs grille s'exécutant à Lyon peuvent accéder aux données de la même façon que les jobs conventionnels données dans HPSS/Xtage accessibles La partie User Interface est installée sur toutes les machines Linux Bonne intégration avec la plate-forme de production existante données (AFS, HPSS, Xtage, ...) calcul F. Hernandez

DataGRID au CC-IN2P3 (suite) Batch Scheduler BQS Computing Element Batch Workers Storage Element Globus Gatekeeper HPSS ……. …… Xtage F. Hernandez

DataGRID au CC-IN2P3 (suite) Gatekeeper Computing Element F. Hernandez

DataGRID au CC-IN2P3 (suite) F. Hernandez

DataGRID au CC-IN2P3 (suite) Fourniture des services transversaux pour le projet Mise en place et exploitation du repository central du logiciel pour tout le projet ligne de commande (local et remote) et interface web Exploitation du serveur central de distribution du logiciel Développement d'outils de vérification de la conformité aux règles du projet cibles des Makefile, nomenclature, numérotation des versions F. Hernandez

DataGRID au CC-IN2P3 (suite) Développement d'outils pour la construction du logiciel faite toutes les nuits sur RedHat 6.2 RedHat 7.2 en cours de déploiement Développement d'outils pour faciliter l'installation génération et publication de listes des RPMs nécessaires pour installer un composant (UI, WN, CE, ...) F. Hernandez

Applications Atlas souhaite utiliser les outils de grille pour ses Data Challenges DC1 (octobre 2002) sera fait pour une partie substantielle sur la grille Atlas-EDG Task Force créée en août 2002 pour évaluer la faisabilité d'utiliser des outils grille pour les DC aider l'expérience à adapter son logiciel à cette infrastructure traitement de 5 datasets 2000 sur le testbed DataGRID + Karlsruhe continuer avec d'autres datasets si succès input: événements générés sous la forme de fichiers ROOT F. Hernandez

Applications (suite) Atlas (suite) traitement: simulation avec le logiciel Atlas v3.2.1 pré-installé sur les sites participants à partir d'une distribution commune installation faite par les administrateurs de site output: événements simulés sous la forme de fichiers ZEBRA plus histogramme HBOOK et logs (stdout, stderr) total: 9 GB input, 100 GB output, 2000 heures de CPU bilan partiel: possibilité d'exécuter des tâches et de transférer des données avec une seule "connexion à la grille" possibilité de repartir la charge sans se connecter explicitement sur chaque site pilotage centralisé de la production rendu plus aisé F. Hernandez

Applications (suite) Atlas (suite) CMS bilan partiel (suite) infrastructure en développement è instabilité interruptions de transferts des gros fichiers (> 1.3 GB) quelques jobs perdus par le système instabilité du système d'information CMS production de 200K événements à partir de nov. 2002 sans Objectivity durée: 3 ou 4 semaines sites: CERN, Lyon, X, CNAF (Bologne), Padoue, RAL, IC ressources nécessaires: 100 workers, 300 GB disque F. Hernandez

Applications (suite) Babar EDG installé à SLAC, Imperial College et Lyon possibilité de soumission de jobs sur ces sites travail actuellement sur l'implémentation de leur catalogue de méta-données séparation d'un job en tâches qui seront exécutées là où se trouvent les données évaluation de SRB comme catalogue local des données de chaque site outil de soumission transparente des jobs sera mis à disposition pour les beta-testeurs F. Hernandez

Applications (suite) LHCb des nouveaux outils de production en cours de déploiment au CERN, Lyon, NIKHEF, CNAF (Bologne), RAL et 10 autres sites tests de base génération de 500 événements stockage sur un Storage Element stockage des logs et histogrammes au CERN reconstruction avec stockage de la sortie dans CASTOR utilisation des données dans CASTOR pour l'analyse (hors grid) F. Hernandez

Applications (suite) Rugbi mise en oeuvre d'une grille pour la bio-informatique: fourniture des services pour l'analyse à grande échelle des structures des protéines utilisateurs: les laboratoires académiques, les sociétés de biotechnologie, des PME du Biopôle Clermont-Limagne partenaires: IN2P3, CS, IBCP, Univ. Blaise Pascal, Biopôle Clermont-Limagne F. Hernandez

Applications (suite) OpenPlast grille informatique pour la simulation de la mise en forme des polymères utilisateurs: industriels de la plasturgie (Rhône-Alpes est la première région de la plasturgie en France) et laboiratoires partenaires: C-S, Ecole Supérieure de Plasturgie, IN2P3, Pôle Européen de Plasturgie projet RNTL F. Hernandez

Perspectives "Mouvance grille" est dans ses débuts Travaux sur les grilles et les services web commencent à converger OGSA: Open Grid Software Architecture évolution de Globus participation active de l'industrie définition et premières implémentations des interfaces et comportements standards d'un service grille implémentation basée sur les services web (XML, SOAP, UDDI, WSDL, ...) indépendance du langage nouvelles opportunités pour les fournisseurs de service F. Hernandez

Conclusions Emergence d'une nouvelle infrastructure sur laquelle la science et l'économie seront bâties Grille est appelée à un succès plus grand encore que le web Beaucoup de travail reste à faire pour que l'utilisation de cette infrastructure soit réellement facile Des nouveaux services vont naître F. Hernandez

Pour en savoir plus... …sur le projet …sur le testbed http://www.eu-datagrid.org …sur le testbed http://marianne.in2p3.fr …sur l'état d'avancement au CCIN2P3 http://ccgrid.in2p3.fr …sur le logiciel DataGRID http://datagrid.in2p3.fr …sur Globus http://www.globus.org F. Hernandez

Questions ? F. Hernandez

Exemples: soumission de job Connexion à la grille grid-proxy-init Description du job JDL: langage de description des jobs Fichier HelloWorld.jdl Executable = "/bin/echo"; Arguments = "Hello World"; StdOutput = "hello.out"; StdError = "hello.err"; OutputSandbox = {"hello.out","hello.err"}; F. Hernandez

Exemples: soumission de job (suite) dg-job-submit HelloWorld.jdl Etat du job dg-job-status <jobId> Récupération de la sortie dg-job-get-output <jobId> F. Hernandez

Exemples: transport de l'exécutable Description du job Executable = "MyExecutable"; Arguments = "1234 test"; StdOutput = "output"; StdError = "error"; InputSandbox = "/home/fabio/MyExecutable"; OutputSandbox = {"output","error"}; Requirements = Member(other.RunTimeEnvironment, "CC-IN2P3"); F. Hernandez