20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.

Slides:



Advertisements
Présentations similaires
DataGRID PTB, Geneva, 10 April 2002 ATLAS Data Challenges Fede Eric.
Advertisements

LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Lyon/ENS DATA GRID-ATLAS ISN Grenoble 1 Portage dune application de physique sur la datagrid Application existante : –Génération/simulation/reconstruction/analyse.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
Lyon, 24/04/2007 Ce que l'application a besoin de connaître: Paramètres physiques par scénario de 150 ans Nombre et numéro d'ordre des mois à effectuer.
31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 1 Simulation-Reconstruction ALICE Une application pour le TestBed 0 ?
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
9-mai-2006 Eric Lancon 1 Tier-1 et Ferme d’Analyse à Lyon Tier-1 de Lyon  Processing et stockage des données réelles  Stockage des données de simulations.
Software engineering, data stores and databases CHEP 2010 Andres Gomez Casanova CC-IN2P3 Storage Team.
Réunion LCG-France, 7/4/2008 C.Charlot Acc è s aux donn é es Accès à dCache Problèmes de stageout des fichiers produits sur les WNs  Aussi pour le stagein.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
2-mars-2009Eric Lançon1 Nouvelles d’ATLAS Reunion LCG 2 mars 2009 Lyon.
CMS ATLAS LHCb CERN Tier 0 Centre at CERN National Centres Lab a Russia Lab c Uni n Lab b Manno Canada Uni y Uni x Tier3 physics department  Ge  Germany.
LCG-France: Tier-1 au CC-IN2P3 Bilan 2005 et perspectives 2006 Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Gestion de données : Besoins de la VO Biomed Sorina Pop Laboratoire Creatis Université de Lyon, CREATIS; CNRS UMR5220; Inserm U1044; INSA-Lyon; Université.
Mod è le de Calcul CMS C. Charlot / LLR CTDR:
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
CAF-13/09/2010Luc1 Squad Report T2 Période 19/06-11/09 Irena, Sabine, Emmanuel.
Le noeud de grille Tier 3 LAPP.
Service Challenge 4 – Tests de Débit Bilan pour le Tier-1 LCG-France Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
F. Ohlsson-Malek Data GRID/WP6 meeting Lyon, 8 juillet 2002 ATLAS Data-Grid au CERN et au CCin2p3 F. Ohlsson-Malek, ISN-Grenoble et ATLAS-France.
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
SC4 ATLAS Ghita Rahal CC-IN2P3 Réunion LCG FRANCE Direction 3 Juillet 2006.
ATLAS Ghita Rahal CC-IN2P3 Novembre 9, /6/2006Réunion CAF2 Activités Création et externalisation d’outils de monitoring de l’état du T1 (CPU,
1 Activités top au CPPM Permanents: F. Hubaut, E. Monnier, P. Pralavorio Thésard: B. Resende Visiteur: C. Zhu  : polarisation du W et du top.
08-avril-2005Eric Lancon1 T1 ATLAS à Lyon. 08-avril-2005 Eric Lancon 2 Caractéristiques du T1 de Lyon Rapport CPU/DISK/TAPE selon ‘computing model’ d’ATLAS.
LHCb DC06 status report (LHCb Week, 13/09/06) concernant le CC : –Site currently fine / stable 3% of simulatated events 30% of reconstructed events –Site.
Site report et IT Facilities. Site report : à retenir GPFS est toujours (de plus en plus utilisé) Les interconnects entre stockage et « calcul » sont.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
EGEODE 08/11/2006 Équipe GRID1 EGEODE EGEODE. 08/11/2006 Équipe GRID2 Plan  La géophysique sur la Grille : EGEODE  Partenariat académique  Comment.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Frédérique Chollet Fairouz Malek Pierre Girard Yannick Patois Réunion LCG-France, Lyon 1 er décembre 2010 Pour clore cette édition…
5 mai 2008J-P Meyer1 Eléments de réflexion pour une ressource d’analyse - Trois exemples de travaux d’analyses effectuées à l’IRFU dans ATLAS: 1) AOD –>
(Mon) Résumé (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Marseille, 25 juin 2010.
Infrastructure LCG-France et Analyse de données Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion CMS-France, IPHC Starsbourg, mai 2009.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
CCRC’08 - phase 2 Point de vue des sites A partir des informations et de contributions de Jean-Michel Barbet Christine Leroy Eric Fede Michel Jouvin Jean-Claude.
1Prod Monte Carlo sur le nuage français La production Monte-Carlo sur le nuage français J.Schwindling CEA / DAPNIA Organisation de la production Monte-Carlo.
11/9/07-PAFL.Poggioli/LAL1/25 Gestion des données : DDM Distributed Data Management Préambule Le modèle ATLAS DDM –Principe, Tests, Suivi, Problèmes Next.
ATLAS et l’analyse au CCIN2P3  Le modèle de calcul de ATLAS  L’analyse à Lyon  Points critiques Avertissement : cette présentation n’est malheureusement.
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
CAF-11/10/2010Luc1 Squad Report T1 Période 13/09-11/10 Irena, Sabine, Emmanuel.
Mercredi 22 juin 2016 Suivi des jobs grille Colloque LCG France Mars 2007.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
ATLAS Analysis Challenge Résultats du Stress Test Frédérique Chollet Information disponible sur le wiki LCG-France
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
05-fevrier-2007Eric Lancon1 ATLAS Bilan Planning 2007.
LCG-FRANCE_19/05/09L. Poggioli1 ATLAS Activités du nuage FR Production MC Reprocessing Analyse Au quotidien Next L.Poggioli, LAL.
Gestion des données : DDM Distributed Data Management
Vue d'ensemble de l'utilisation du CCIN2P3 par les expériences LHC
ATLAS Computing model et utilisation de LCG
Activités présentes et à venir
Résumé de la réunion PAF-CAF 12/04/2010
Transcription de la présentation:

20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal

20-mars-2008Eric Lançon2 2 DecemberJanuaryFebruaryMarchApril May CC Readiness Challenge 12 Full DressRehersal 12 0 Cosmic Ray tests M6 SRMv2 testing bis Functional Tests 3333 FDR-2 Simulation Production 100 days mixing Sub-detector tests Re-processing in T1’s 30 days 111 NOW

20-mars-2008 Eric Lançon 3 Sélection Hier  Production MC  CCRC et distribution des données ‘cosmiques’ Demain  Mise en place de l’analyse  FDR-2 Oublis  Tests de reprocessing au T1 (données input sur HPSS)  Echanges T1-T1  …

20-mars-2008 Eric Lançon 4 Statistiques Production MC % of ATLASFinished Jobs FR cloud 16%.fr sites 13% ATLAS : Jan. - Mar. : jobs ATLAS : Jan. - Mar. : jobs A base de ‘jobs pilots’, opération par nuage (depuis Lyon pour FR) Utilisation ~ 1/3 demandes

20-mars-2008 Eric Lançon 5 Jobs/day

20-mars-2008 Eric Lançon 6 efficiency JobCPU ATLAS76%89%.fr sites 70%82% Job efficiency = OK / ALL CPU effciency = OK / Running Efficacités Efficacité des sites.fr < ATLAS

20-mars-2008 Eric Lançon 7 Répartition ‘typique’ des erreurs ~70% des erreurs : I/O

20-mars-2008 Eric Lançon 8 Transferts T2 -> T1 Puissance CPU disponible > débit transferts FTS Pénalisé aussi par la petite taille des fichiers d’ATLAS Charge induite sur srm du T1 Limitation a :  3000 transferts  2 jours/ 2 semaines de queues suivant priorités des jobs Transferring Running Limite pour soumission

20-mars-2008 Eric Lançon 9 Transferts CCRC08 semaines 3-4 Taux de transfert T0  T1 inférieurs à la cible (900 MB/s) Peu de problèmes au CC Transferts en concurrence avec ceux des autres expériences LHC (principalement CMS) Pb CASTOR CERN Mismatch clé dans FTS Erreurs de transfert MB/s LYON Date (jours)

20-mars-2008 Eric Lançon 10 Données cosmiques ‘M6’ w.e. ! [7-10] mars Exports  T0->T1s  CC->Tokyo Jusqu’à >~100 MB/s sur quelques heures; Problèmes :  Engorgements du serveur PNFS - understood  Monitoring serveur central ATLAS au CERN - fixed? Pas de distribution en continue (heureusement?) CC: pb PNFS Serveur central DDM ATLAS CC: pb ? errors MB/s Heures

20-mars-2008 Eric Lançon 11 From here To here Données M6 du CC a Tokyo

20-mars-2008 Eric Lançon 12

20-mars-2008 Eric Lançon 13 Date CC->Tokyo MB/s Succès car implication du T2 de Tokyo dans le système de distribution

20-mars-2008 Eric Lançon 14 Srm v2 & Space Token Space Token  Chaque fichier appartient a une (seule) catégorie  Quota (software) par catégorie  Droit d'écriture seulement pour rôle ‘production’ ‘Status’  Déployé sur certains T2 ATLASDATADISK, ATALSMCDISK A venir : physic group  En cours de test Conséquence  Gestion centralisée des données sur ces espaces par ATLAS

20-mars-2008 Eric Lançon 15 ‘facilités’ d’analyse Tests de XROOTD au CC  Pour jobs d’analyse (inputs : AODs), déjà utilise a BNL  Bande passante nécessaire aux jobs d’analyse?  Just starting…  Beaucoup d’utilisateurs français a BNL… glitePROOF au CPPM  PROOF sur grille Utilisation des groupes de la VO?

20-mars-2008 Eric Lançon 16 Tests de gLitePROOF au CPPM

20-mars-2008 Eric Lançon 17 Karim B.

20-mars-2008 Eric Lançon 18 Limite I/O atteinte… réseau : 1gb/s accès disk : 100Mb/s Limite I/O atteinte… réseau : 1gb/s accès disk : 100Mb/s Karim B.

20-mars-2008 Eric Lançon 19  0.5 M minimum bias and cavern events  10 M physics events  100 M fake events  0.5 M minimum bias and cavern events  10 M physics events  100 M fake events D’ici fin mai : FDR-2 Final Dressed Rehearsal Simulation + Digitization done at T2’s HITS and RDOs uploaded to T1  HITS to tape at T1  RDO to BNL for mixing, shipped to T0 Export from T0 to T1s (end May) Reconstruction done at T1s  ESD, AOD, TAG archived to tape at T1  ESD copied to other T1 by share (3 full copies world- wide)  AOD and TAG copied to each other T1 Production des données Distribution et reprocessing des données

20-mars-2008Eric Lançon20