F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/2003 1 Le projet EU DataGrid et la participation d’ATLAS.

Slides:



Advertisements
Présentations similaires
CGP2P, école des mines Sous-projet V La participation du LAL au projet CGP2P DataGRID CGP2P.
Advertisements

Direction de lévaluation et de la prospective 1 La R&D en France: résultats 2003 et estimations 2004 – Présentation du 21 septembre Présentation.
Le Grid Computing Par Frédéric ARLHAC & Jérôme MATTERA.
Fête de la Science 2011 Le LHC et ses expériences des géants pour sonder le coeur de la matière Bienvenue au Laboratoire De Physique Subatomique et de.
CC-Lyon le 21/12/01VO et outil de maj des grid-mafile VO et outil de mise à jour des grid-mapfile
Septembre 2001Y. Schutz - ALICE / WP6 France1 Activités GRILLE dALICE.
Etat du site Datagrid à lIPSL 1. sur la machine Amundsen : Installation de linterface Utilisateur (UI) et tests de fonctionnalités réussis Monitoring réseau.
WP10 Vincent BRETON – DataGRID France – Statut du WP10.
DataGRID PTB, Geneva, 10 April 2002 ATLAS Data Challenges Fede Eric.
N. Jacq- LBP/CNRS - DataGrid France - November, 21th, 2001 Avancement du WP10 N. Jacq - LBP/CNRS marianne.in2p3.fr/datagrid/wp10.
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
User Support Sophie Nicoud DataGrid France – CPPM 22/09/02.
DataGrid Revue Résumé de la seconde revue européenne du projet Datagrid.
Lyon/ENS DATA GRID-ATLAS ISN Grenoble 1 Portage dune application de physique sur la datagrid Application existante : –Génération/simulation/reconstruction/analyse.
Nadia LAJILI STATUS REPORT WP6 Workshop Oxford Lyon,le 19 Juillet 2001.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
1 TICE 2000 / Troyes / octobre 2000 Des moteurs de recherche efficaces pour des systèmes hypertextes grâce aux contextes des nœuds Des moteurs de.
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
Modules et Pétales pour les bouchons
Collecte de données en ligne
EGEE is a project funded by the European Union under contract IST Gestion des données David Bouvet CCIN2P3 Présentation faite à partir des.
Alain Romeyer - 15/06/20041 UMH Machines livrées le 08/04/2005 Configuration choisie (différente des autres sites) : 6 machines SUN Fire V20Z.
Journées de Rencontre Jeune Chercheurs
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
Soutenance de stage de fin d’études
L’expérience ATLAS au LHC
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
Fabio HERNANDEZ Centre de Calcul de l'IN2P3 - Lyon
1 Modèle pédagogique d’un système d’apprentissage (SA)
Un serveur de données au format ROOT.
Plateforme de Calcul pour les Sciences du Vivant Soumission de jobs sur grille.
CALENDRIER-PLAYBOY 2020.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 1 Simulation-Reconstruction ALICE Une application pour le TestBed 0 ?
Tirer le meilleur parti d’Office /10/ Vincent Bippus IT/OIS 07 octobre 2014.
Centre de Calcul de l'IN2P3 - Lyon Toulouse - Lyon, 21 décembre 2004 Les projets de grille au Centre de Calcul de l’IN2P3.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
CMS ATLAS LHCb CERN Tier 0 Centre at CERN National Centres Lab a Russia Lab c Uni n Lab b Manno Canada Uni y Uni x Tier3 physics department  Ge  Germany.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
F. Ohlsson-Malek Data GRID/WP6 meeting Lyon, 8 juillet 2002 ATLAS Data-Grid au CERN et au CCin2p3 F. Ohlsson-Malek, ISN-Grenoble et ATLAS-France.
Gestion des données sur la grille C. Charlot / LLR CNRS & IN2P3 For the European DataGrid Project Team
Production DC2 ATLAS David Bouvet LHC Calcul 22 juillet 2004.
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Sample Image 3ème rencontre EGEODE – Villefranche-sur-Mer – 29 May 2009 g-Eclipse avec EGEODE
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Data management David Bouvet IN2P3-CC Clermont.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Soumission de jobs David Bouvet IN2P3-CC.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
Yannick Patois _ Journée du Libre _ 1er Novembre n° 1 Datagrid Une grille de calcul sous Linux Yannick Patois.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Quelques commandes de la grille David Bouvet.
Mardi 31 mai 2016 JJS (Java Job Submission) Soumission de jobs sur grille Pascal Calvat Centre de calcul.
EGEE is a project funded by the European Union under contract IST Job Soumission Eric Fede CPPM Grid Tutorial, Novembre
EGEE is a project funded by the European Union under contract IST Job Soumission N.Lajili Seminaire Grille-21 Novembre
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Edit Knoops CPPM 20/01/2009 Enabling Grids for E-sciencE Gestion des données Gestion des jobs Edith Knoops.
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Soumission de jobs C. Loomis / M. Jouvin.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
EGEE induction course, 22/03/2005 INFSO-RI Enabling Grids for E-sciencE Infrastructure Overview Pierre Girard French ROC deputy.
INFSO-RI Enabling Grids for E-sciencE Data management Daniel Jouvenot IN2P3-LAL ORSAY - 02/02/2007.
INFSO-RI Enabling Grids for E-sciencE La gestion des données Daniel Jouvenot LAL-IN2P3-CNRS 18/06/2008.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Fonctionnement de la grille
Transcription de la présentation:

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Le projet EU DataGrid et la participation d’ATLAS

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ La symbolique de GRID  Calcul distribué inévitablement illimité  Accès transparent aux multipetabytes de bases de données distribuées  Facile à mettre en place  La complexité de la structure est cachée  Analogie avec le réseau électrique

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ online system multi-level trigger filter out background reduce data volume level 1 - special hardware 40 MHz ( 40 TB/sec ) level 2 - embedded processors level 3 - PCs 75 KHz (75 GB/sec) 5 KHz (5 GB/sec) 100 Hz ( 100 MB/sec ) data recording & offline analysis Une des 4 expériences sur le LHC

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Les détecteurs du LHC CMS ATLAS LHCb Stockage – Taux d’enregistrement “Brut” 0.1 – 1 GB/sec accumulant jusqu’à 5-8 PetaBytes/an 10 PetaBytes de disk Processeurs– 7M SI95 units (~300 million MIPS)

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Le réseau CERN dans le monde Europe: 267 instituts, 4603 utilisateurs Ailleurs: 208 instituts, 1632 utilisateurs

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Le Problème  Quantité Vaste de données  Demandes de calculs énormes  Des chercheurs partout dans le monde La physique est AUSSI un Challenge!

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ La solution 1: distribuer le travail et les données le cas d’ATLAS  Mise en place des Data-Challenges: Simulation du détecteur, reconstruction etc …  DC0: 10 5 collisions p-p  été 2002  DC1:  Phase 1: 10 7 collisions p-p et single  25 TB données produites  décembre 2002  Phase 2: Données Phase 1 à reconstruire  DC2, DC3 ….  2003 à 2005  Participation de 150 universités et laboratoires: 34 pays  DC1: 15 pays dont la France  Délocalisation des données, distribution du software sous forme de RPMs, partage des taches  Conséquences: beaucoup de lourdeur dans les transferts de données (bbftp, ftp, …), des procédures de validation, des publications de l’information (BookKeeping) etc…

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ La solution 2: Utiliser la technologie Grid qu’on on peut  En principe, Vous soumettez une tâche et Grid  Trouve l’endroit idéal pour que cette tâche fonctionne  Organise des accès efficaces à vos données  lecture, migration, replication  “Discute” avec les autorités de certification des différents sites que vous accédez  Interface au site local pour les ressources, les mécanismes d’allocations, les règles d’usage etc….  Fais fonctionner les tâches soumises  Monitore le progrès .. et.. vous contacte pour vous prévenir si votre tâche est finie

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Le modèle LHC Computing Physics Department    Desktop CERN Tier2 Lab a Uni a Lab c Uni n Lab m Lab b Uni b Uni y Uni x Tier 1 USA FermiLab UK France Italy NL Germany USA Brookhaven ……….

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Programme EDG  Mandat: 1er Janvier 2001, fin 2003  But: développement d’un “Grid middleware” pour la Physique des Hautes Energies, l’Observation de la terre et les applications en Biologie  Le coeur du “ testbed” consiste en un site central, le CERN et d’autres facilités en Europe de l’Ouest.  Nous avons atteint un niveau de stabilité “suffisant” pour faire des tests de production à grande échelle.

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Le Testbed EDG et l’implication d’ATLAS  EDG est impliqué dans la création d’un testbed stable pour une utilisation d’applications  démarrage en août 2002  …et coincide avec ATLAS DC1  La priorité a donc été donnée à ATLAS  Tous les Sites utilisent les outils EDG (basés sur RedHat 6.2)  L’élément Central: Resource Broker (RB), distribue les jobs entre les différentes ressources  Maintenant:, 3 RB au CERN, 2 à l’INFN  Futur, 1 RB par “Virtual Organization” (VO)

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Les services offerts par EDG  Workload Management spécification des options de jobs input data – (données en entrée) conditionne les soumissions de job “les meilleures" ressources sont choisies (si pas de données en entrée, ou d’autres ressources équivalentes..)  Information System: permet le monitoring publie régulièrement les informations renouvelées des sites connectés: par exemple, le number de CPUs, les jobs qui tournent, l’espace disque disponible, les VOs autorisés etc…)  ReplicaManager et Transfert de données Les outils du Replica Manager et GridFTP permettent des mouvements de données, i.e., transfert GridFTP ustilisant le méchanisme d’authentification GSI (Globus)  Stockage SE

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Les services offerts par EDG (suite …) UI JDL Logging & Book-keeping Job Submit Event ResourceBroker Input Sandbox Job Submission Service StorageElement ComputeElement Brokerinfo InformationService Job Status ReplicaCatalogue CASTOR/HPSS ?

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Ce qui a été fait en septembre 2002  Formation d’une équipe de personnes “Task Force”, resp. O. Smirnova  ATLAS software (release 3.2.1) sous forme de RPMs, distribué, ATLAS EDG Testbed 1.2  DC1 production script “gridifié”, script de soumission de jobs (simulation), préparé et distribué Input file  simulation dans le détecteur  output files

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Un script (JDL) d’application Executable = "/usr/bin/time"; Arguments = "/bin/sh dc1-ds2000.sh 128"; StdOutput = "dc simul hlt.pythia_jet_17.log"; StdError = "dc simul hlt.pythia_jet_17.err"; InputSandbox = {"dc1-ds2000.sh", "rc.conf"}; OutputSandbox = {"dc simul hlt.pythia_jet_17.log","dc simul hlt.pyth ia_jet_17.his","dc simul hlt.pythia_jet_17.MAG","dc simul hlt.pythia_jet_17.AMI","dc simul hlt.pythia_jet_17.err"}; InputData = {"LF:evgen/data/002000/dc evgen.0007.hlt.pythia_jet_17.root"}; DataAccessProtocol = {"rfio"}; ReplicaCatalog = "ldap://dell04.cnaf.infn.it:9011/lc=Atlas Lc1,rc=ATLAS Testbed1 Replica Catalog,dc=dell04,dc=cnaf,dc=infn,dc=it"; Requirements = other.MaxCPUTime > && Member(other.RunTimeEnvironment,"ATLAS-3.2.1"); Rank = other.FreeCPUs * other.EstimatedTraversalTime; RetryCount = 0;

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Ce qui a été fait en septembre 2002 (suite …)  5 fichiers input du Dataset 2000 sont répliqués sur 5 sites, 5 chercheurs × 20 jobs  Si problèmes: jobs ressoumis Location Input partition nr. CERN 0001, 0002, 0003, 0004, 0005 RAL 0001, 0003 CNAF 0002, 0005 NIKHEF 0003, 0004 CCIN2P3 0002, 0004 Résultas: Succès même si beaucoup de jobs ratés Outputs copiés au CERN SE événements simulés, 50 Gb outputs Jobs longs > 24 h CPU

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Ce qui a été fait en décembre 2002  Process (simulation) 5 partitions (fichiers input) du Dataset the EDG Testbed 1.4  100 jobs à soumettre, pas de ressoumission  Output partitions: Tous à enregister au CERN SE  La tâche est pratiquement la même que celle de septembre, sauf que:  Pas de ressoumission  Un nouveau server pour le Replica Catalog (même site, machine différente)

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Résultats de décembre 2002 Distribution des jobs et résultats

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Résultats de décembre 2002 Progression temporelle

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Résultats de décembre 2002 Durée des Jobs

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Résultats de décembre 2002 Conclusions  Seulement 2 jobs ont fini complètement  Problème général avec les longs jobs  GASS cache?  Globus – PBS interaction?  Autre ?  Problème d’écriture des fichiers output  EDG Replica Manager?  GridFTP server?  Autre ?  MDS information “fausse” sur certains sites (ETT, free CPUs)  Interaction avec CASTOR et HPSS ?

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Bilan « Atlas » de l’utilisation de EDG   Inconvenients  EDG est encore dans l’état de développement  non recommandé pour de la production de masse   Avantages  Permet une coopération mondiale facile  Accès à des ressources multiples et différentes en utilisant le même certificat   Les points à améliorer  Uh oh, everything… Workload management, data management, information system and monitoring, mass storage management, fabric set up. (O. Smirnova)  ATLAS doit choisir et sélectionner ses bases de données et éventuellement les gridifier   Les résultats  Le software ATLAS fonctionne bien dans l’environnement Grid  Il est théoriquement possible d’utiliser GRID pour la production de masse  EDG doit améliorer le « middleware » pour satisfaire à la demande des expériences

F. Ohlsson-Malek, ISN Grenoble CCin2p3, EDG Tutorial 14/02/ Conclusions …  Nouvelle release: EDG  Premiers tests: meilleurs que les précedents  Pour le Demo EDG EU :  20 partitions (inputs) récupérés de CASTOR au CERN– utilisant rfcp et globus-url-copy directement de LXPLUS7 vers CERN SE  400 jobs seront soumis (1 semaine avant la demo)  La distribution des jobs sera montrée