11/9/07-PAFL.Poggioli/LAL1/25 Gestion des données : DDM Distributed Data Management Préambule Le modèle ATLAS DDM –Principe, Tests, Suivi, Problèmes Next.

Slides:



Advertisements
Présentations similaires
1 ATLAS France 2006 Comité Organisateur : Nathalie BESSON…..(Dapnia) Jean ERNWEIN………(Dapnia) Daniel FOURNIER………(LAL) Philippe GRENIER (LPCC) Marumi.
Advertisements

1 ATLAS France 2006 Comité Organisateur : Nathalie BESSON…..(Dapnia) Jean ERNWEIN………(Dapnia) Daniel FOURNIER………(LAL) Philippe GRENIER (LPCC) Marumi.
1 ATLAS France 2006 Comité Organisateur : Nathalie BESSON…..(Dapnia) Jean ERNWEIN………(Dapnia) Daniel FOURNIER………(LAL) Philippe GRENIER (LPCC) Marumi.
Bilan (1) Tour dhorizon des activités IN2P3/Dapnia Expertises dans de nombreux domaines Construction des détecteurs, installation,… Faisceaux tests et.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
La Grille de Calcul du LHC
Services de production grille en France Gilles Mathieu IN2P3-CC France Grilles Frédérique Chollet IN2P3-LAPP LCG France Rencontres France Grilles et LCG-France,
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
9-mai-2006 Eric Lancon 1 Tier-1 et Ferme d’Analyse à Lyon Tier-1 de Lyon  Processing et stockage des données réelles  Stockage des données de simulations.
Réunion LCG-France, 7/4/2008 C.Charlot Acc è s aux donn é es Accès à dCache Problèmes de stageout des fichiers produits sur les WNs  Aussi pour le stagein.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
2-mars-2009Eric Lançon1 Nouvelles d’ATLAS Reunion LCG 2 mars 2009 Lyon.
Mod è le de Calcul CMS C. Charlot / LLR CTDR:
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Projet LCG-France Planning Ressources humaines
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
CAF-13/09/2010Luc1 Squad Report T2 Période 19/06-11/09 Irena, Sabine, Emmanuel.
Service Challenge 4 – Tests de Débit Bilan pour le Tier-1 LCG-France Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
Frédéric Hemmer, CERN, Département ITLa Grille de Calcul du LHC – septembre 2007 La Grille de Calcul du LHC Frédéric Hemmer Adjoint au Chef du Département.
SC4 ATLAS Ghita Rahal CC-IN2P3 Réunion LCG FRANCE Direction 3 Juillet 2006.
ATLAS Ghita Rahal CC-IN2P3 Novembre 9, /6/2006Réunion CAF2 Activités Création et externalisation d’outils de monitoring de l’état du T1 (CPU,
HEPIX N. Neyroud 1.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
9ème Forum Utilisateurs CATIA CERN Retour d‘expérience IN2P3 08 novembre 2011V. Boninchi1.
GRIF Status Michel Jouvin LAL/Orsay
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
Monitoring: état et perspectives Cette présentation fera le point sur le travail effectué au sein du groupe de travail, créé au sein de LCG-France et EGEE.
Frédérique Chollet Fairouz Malek Pierre Girard Yannick Patois Réunion LCG-France, Lyon 1 er décembre 2010 Pour clore cette édition…
Roadmap opérations Revue fin 2013 Planification 2014 Visio opérations – décembre 2013.
Journée Projets, 23 novembre 2010 Etienne Augé Directeur Adjoint Scientifique Physique des Particules Physique des Particules Projets 2011.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Enjeux, succès et défis des grilles en physique des hautes énergies Faïrouz Malek, CNRS Paris le 3 Décembre 2007.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
Catalogues de fichiers de données. David Bouvet2 Problématique Possibilité de répliquer les fichiers sur divers SE  nécessité d’un catalogue de fichiers.
1Prod Monte Carlo sur le nuage français La production Monte-Carlo sur le nuage français J.Schwindling CEA / DAPNIA Organisation de la production Monte-Carlo.
ATLAS et l’analyse au CCIN2P3  Le modèle de calcul de ATLAS  L’analyse à Lyon  Points critiques Avertissement : cette présentation n’est malheureusement.
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
Grid au LAL Michel Jouvin LAL / IN2P3
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
CAF-11/10/2010Luc1 Squad Report T1 Période 13/09-11/10 Irena, Sabine, Emmanuel.
Réunion des sites LCG France- Marseille juin ACTIVITES DU GROUPE ACCOUNTING FRANCE GRILLES Cécile Barbier (LAPP)
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Mercredi 22 juin 2016 Suivi des jobs grille Colloque LCG France Mars 2007.
LCG France point Réseau Mai 2013.
Tier2: Subatech Tier2: LPC Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO AF: CC-IN2P3 Tier3: LAPP Tier1: CC- IN2P3.
Stratégie technique G. Mathieu – V. Breton. Stratégie vers les fournisseurs de services et de ressources France Grilles2 Jouer le rôle central dans le.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
INFSO-RI Enabling Grids for E-sciencE Data management Daniel Jouvenot IN2P3-LAL ORSAY - 02/02/2007.
ATLAS Analysis Challenge Résultats du Stress Test Frédérique Chollet Information disponible sur le wiki LCG-France
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
05-fevrier-2007Eric Lancon1 ATLAS Bilan Planning 2007.
1 Stéphane JEZEQUEL JI06 Modèle de calcul d'ATLAS et Exercices en vraie grandeur de la grille WLCG par l'expérience ATLAS S. Jézéquel Journées Informatiques.
LCG-FRANCE_19/05/09L. Poggioli1 ATLAS Activités du nuage FR Production MC Reprocessing Analyse Au quotidien Next L.Poggioli, LAL.
Gestion des données : DDM Distributed Data Management
ATLAS Computing model et utilisation de LCG
APS 2008 Conférence de l’APS avril St Louis
Utilisation effective de la Grille par ATLAS S. Jézéquel (LAPP)
LCG – France et ALICE Bilan 2006 Planning fevrier 2007
Transcription de la présentation:

11/9/07-PAFL.Poggioli/LAL1/25 Gestion des données : DDM Distributed Data Management Préambule Le modèle ATLAS DDM –Principe, Tests, Suivi, Problèmes Next L. Poggioli

11/9/07-PAFL.Poggioli/LAL2/25 Préambule Ce talk devrait être donné par S. Jézéquel – Il possède la compétence, connaissance, expertise, suivi, depuis le début Stéphane est maintenant responsable de ATLAS Data Placement Il transmet son savoir à M. Ridel & LP –Mélissa : opérations de suivi, cleaning (scripts) –LP : Data placement pour le nuage français Mille mercis à –Stéphane, Mélissa, Eric, Alexei Klimentov (CERN DDM)

11/9/07-PAFL.Poggioli/LAL3/25 Le modèle ATLAS (1) A.Farbin/UTA Cf. Stathis Today ESD~1MB/evt

11/9/07-PAFL.Poggioli/LAL4/25 Le modèle ATLAS (2) A.Farbin/UTA 40+ sites Worldwide

11/9/07-PAFL.Poggioli/LAL5/25 Le principe Règle de base : Calculer où sont les données Optimiser les ressources de calcul –CE (Computing Elements) via la GRILLE Optimiser les ressources de stockage –SE (Storage Elements) –Distribution des données via DDM Outils d’analyse distribuée : GANGA/PANDA –Sur AOD : Pas de problème –Sur ESD : Difficile à grande échelle Gros fichier -> moins de réplications Doit se faire au niveau T1 (OK pour Lyon avec AF) –Mais pas toutes les T1 (sauf BNL ?). A suivre

11/9/07-PAFL.Poggioli/LAL6/25 Production des données Tier-0 (CERN) –Production des ESD/AOD : données ATLAS, cosmiques (M4) Tier-1 –Reprocessing de ses propres RAW Reproduit ESD/AOD associées –Production Monte-Carlo –Analyse (si Analysis Facility intégrée) Tier-2 –Analyse –Production Monte-Carlo Remonte les données vers son Tier-1

11/9/07-PAFL.Poggioli/LAL7/25 Réplication des données (DDM) Centralisé & automatique (Cf. Computing Model) –Données simulées/Vraies données AOD/NTUP/TAG (volume actuel ~1.5 TB/semaine) –Chaque T1 a une réplique complète –Les T2 définissent quelle fraction ils ont ESD –Seuls les T1 en ont une fraction donnée et random (~10%) –Release des bases de données Répliquées dans chaque Tier. Faible volume de données (~100MB) –“Conditions data” Répliquées dans chaque Tier-1 –Données Cosmiques (Cf. plus loin) RAW : Fraction répliquée à chaque Tier-1s (selon répartition prévue) ESDs : répliquées à chaque T1 & T2 selon demande Un T2 peut demander la réplication des RAW via DDM

11/9/07-PAFL.Poggioli/LAL8/25 Recherche d’un dataset : AMI (LPSC) Fondé sur metadata Fournit tout l’historique d’un dataset

11/9/07-PAFL.Poggioli/LAL9/25 Recherche d’un dataset : Panda Monitor (BNL) Fournit la liste des réplications eg. LAPP

11/9/07-PAFL.Poggioli/LAL10/25 Transfert des données : Principe Tokyo T1 T0 T2 LFC T1 …. VO box Catalogues généraux centralisés (LFC): Contenus des datasets Localisation des datasets dans les T0-T1-T2 Liste des requêtes de transferts des datasets Catalogues locaux (LFC) Localisation dans le centre des fichiers de chaque dataset Catalogues généraux centralisés (LFC): Contenus des datasets Localisation des datasets dans les T0-T1-T2 Liste des requêtes de transferts des datasets Catalogues locaux (LFC) Localisation dans le centre des fichiers de chaque dataset Demande au catalogue central : liste des datasets a répliquer Gestion transfert Enregistrement informations dans catalogues locaux et centraux Demande au catalogue central : liste des datasets a répliquer Gestion transfert Enregistrement informations dans catalogues locaux et centraux VO box : computer dédié pour transferts et réplications NEW : Déplacé au CERN

11/9/07-PAFL.Poggioli/LAL11/25 DDM : composants DQ2 dataset catalogs DQ2 “Queued Transfers” Local File Catalog File Transfer Service DQ2 Subscription Agents Part of DQ2 Not part of DQ2 Slide from M.Branco

11/9/07-PAFL.Poggioli/LAL12/25 DDM et dq2_ –DDM : Transfert massif de données et enregistrement des nouveaux replicats dans les catalogues –dq2_ : (dq2_get, _register,_delete…) Copie locale de quelques fichiers Surcouche sur certains composants de DDM –Partie commune : Recherche fichiers d'un dataset et leur localisation –Différence principale DDM : Organisation et mise en queue des transferts dq2_ –Transfert dès que possible->Stress sur élément de stockage -> Limiter l’usage de dq2_ au débugging, mais difficile tant que DDM pas totalement opérationnel

11/9/07-PAFL.Poggioli/LAL13/25 Requête DDM officielle Bientôt seul moyen –Doit être accréditée par le responsable du data placement du nuage

11/9/07-PAFL.Poggioli/LAL14/25 Activités DDM Equipes centrales (CERN) et régionales (T1) Support de la production MC Réplication des données vers les sites Développement d’outils de monitoring “Data integrity” contrôle (Mélissa) –Données dans DDM vs entrées dans LFC DDM est le juge de paix –’zombies’ et fichiers ‘longueur nulle’ Destruction de données invalides/obsolètes Mouvement des données dans un nuage

11/9/07-PAFL.Poggioli/LAL15/25 DDM Monitoring : ARDA Ici Transferts PRODMC T0 -> LYONDISK –A gauche liste de tout le nuage associé -> Détails des transferts sur les T2s disponibles

11/9/07-PAFL.Poggioli/LAL16/25 Volume de données wrt ATHENA Expérimental (Stéphane) pour données MC

11/9/07-PAFL.Poggioli/LAL17/25 Monitoring des réplications Ici nuage français (fonctionne pour autres nuages) pour la PROD MC Taille en GB # fichiers

11/9/07-PAFL.Poggioli/LAL18/25 Monitoring dans le temps Ici taille en GB (AOD, ESD, LYONDISK (210 TB stockage) 1/04 -> 1/09/2007 AOD : 20 TB today ESD : 50 TB today RDO : 40 TB today (après archivage/cleaning ) HITS : 10 TB today (après archivage/cleaning)

11/9/07-PAFL.Poggioli/LAL19/25 Datasets disponibles Exemple LPNHE AOD

11/9/07-PAFL.Poggioli/LAL20/25 Prise de donnés cosmiques M4 (1) En plus de la prod MC Lecture de tout ATLAS avec cosmiques : Run M4 (Cf. Emmanuel, Claudio, Philippe) –Ecriture sur MBytes/s !! –A priori pas d’OFC corrects por LAR reco A reprocesser –Réplication RAW : Fraction répliquée à chaque Tier-1s (selon répartition prévue) ESDs : répliquées à chaque T1 & T2 selon demande Un T2 peut demander la réplication des RAW via DDM Test en vraie grandeur T0-> T1s -> T2s

11/9/07-PAFL.Poggioli/LAL21/25 Prise de données cosmiques M4 (2) Transferts T0 -> T1’s –eg LYONDISK (ESD) et LYONTAPE (RAW) LYON –Transferts T1 (LYON) -> T2’s ESD Toutes les T1s Toutes les LYON (requête) ESD réparties dans T2s nuage français

11/9/07-PAFL.Poggioli/LAL22/25 Au quotidien Les choses bougent très vite –Suivi hebdomadaire des meetings Computing Ops (K. Bos) et DDM Ops (A. Klimentov) Développement d’outils –Finalité : Automatiques pour limiter manpower –Dégager de l’espace disque sur T1 & T2 (Mélissa pour la destruction des datasets obsoletes) eg RAW de prod MC dans T2 une fois remontées au T1 si problème (sinon automatique) –Archivage/suppression des RDO en cours –Organisation des zones disques pour faciliter transferts & relecture des fichiers

11/9/07-PAFL.Poggioli/LAL23/25 Problèmes DDM Taille fichiers –CMS transfère 1k fichiers/jours (But ATLAS 20K fichiers) –Gros overhead à chaque réplication (en sus du transfert FTS) -> Regrouper les HITS en fichiers de evts (actuellement 50 evts) –Suppression des RDOs Outils Grille encore peu stables Manquent des outils de monitoring –eg quelques semaines entre fichier perdu et découverte de la perte

11/9/07-PAFL.Poggioli/LAL24/25 Liens utiles AMI – Panda Browser – ARDA DDM monitoring – DDM Wiki –ATLAS –France Listes des fichiers sur le nuage Français –

11/9/07-PAFL.Poggioli/LAL25/25 Next Renforcer DDM ATLAS (orga., manpower) Progrès –Avoir des outils stables de migration FTS –Avoir des outils pour blacklister des sites –Avoir une ligne de transferts express (eg. EVGEN ou condition database) Plus d’outils de monitoring –Comprendre l’utilisation des datasets (analyse/transfert) Besoin d’utilisateurs « disciplinés » Quid des transferts dans les T3

11/9/07-PAFL.Poggioli/LAL26/25 Backup

11/9/07-PAFL.Poggioli/LAL27/25 Le modèle ATLAS CERN LYON NG BNL FZK RAL CNAF PIC TRIUMF SARA ASGC LPC Tokyo Romania GRIF T3 SWT2 GLT2 NET2 WT2 MWT2 T1 T2 T3 VO box, dedicated computer to run DDM services LYON Cloud BNL Cloud TWT2 Melbourne ASGC Cloud “Tier Cloud Model” Unit : 1 T1 + n T2/T3 Pékin A l'intérieur d'un nuage T1: 10 % RAW, 20 % ESD, 100% AOD  T2 : 100 % AOD, petite fraction ESD,RAW

11/9/07-PAFL.Poggioli/LAL28/25 Le nuage francais Tier-2: LPC Tier-2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier-2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO AF: CC- IN2P3 Tier-3: LAPP Tier-1: CC-IN2P3 Lyon Clermont-Ferrand Ile de France Marseille Nantes Strasbourg Annecy Tier-3: CPPM Pekin Tokyo Roumanie Pekin

11/9/07-PAFL.Poggioli/LAL29/25 DDM : Transferts FTS

11/9/07-PAFL.Poggioli/LAL30/25 Et bien sur il vous faut un certificat Grille !! « Est-ce que ma vie sera mieux une fois que j’aurai mon certif’ ? » Laurent Voulzy, Rock-Collection