Infrastructure de grille LHC en France et ressources associées Fairouz Malek Responsable Scientifique du projet LCG-France fmalek@in2p3.fr 2ème Colloque LCG-France Clermont-Ferrand, 14-15 Mars, 2007
Contenu LCG en bref LCG-France Conclusions Infrastructure Ressources de calcul Budget Conclusions F. Malek
Données LHC 40 millions collisions par seconde ~100 collisions d’intérêt scientifique par seconde Jusqu’à 10 MBytes de données digitisées par collision Taux jusqu’à 1 GBytes/sec 1010 collisions enregistrées par an Jusqu’à 15 PetaBytes/an F. Malek
Collaboration W-LCG But Phases Collaboration Ressources de calcul Développer, construire et maintenir une infrastructure de calcul distribué pour le stockage et l’analyse des 4 expériences LHC Phases Phase I: 2002-2005 développement et planning Phase II: 2006-2008 déploiement et mise en route (commissioning) Collaboration >100 centres de calcul dans le monde entier 11 grands centres et ~40 fédérationsde petits centres Memorandum of Understanding: accord en 2005 et signé par les partenaires du projet Ressources de calcul Planning sur 5 ans Engagement par les partenaires en octobre de l’année pour l’année à venir. F. Malek
LCG System Architecture Set of services and applications running on the grid infrastructures provided by EGEE (Europe and Asia Pacific) and Open Science Grid (USA) F. Malek
LCG System Architecture (suite) Tier0 Trigger and Data Acquisition System 10 Gbps links Optical Private Network (to almost all sites) Tier1 General Purpose/Academic/Research Network Tier2 F. Malek
Experiments served with priority Centres Tier1 Institution Country Experiments served with priority ALICE ATLAS CMS LHCb TRIUMF Canada CC-IN2P3 France FZK-GridKA Germany CNAF Italy NIKHEF/SARA Netherlands Nordic Data Grid Facility DK/FI/NO/SE PIC Spain ASGC Taiwan RAL United Kingdom BNL USA FNAL Total 6 10 8 Source: CRRB – WLCG Memorandum of Understanding – 2006/06/01 F. Malek
LCG System Architecture (suite) Ressources de calcul requises Pour les 4 expériences pour l’année 2008 CERN (T0 + AF) All Tier1s All Tier2s Total CPU [SpecInt2000] 25 M 56 M 61 M 142 M Disk [PB] 7 31 19 57 Mass Storage 18 35 53 More than 53.000 today’s dual-core AMD Opteron Around 355 TFLOPS F. Malek
LCG-France But Echelle de temps Mise en place, développement et maintenance d’un Tier1 et d’un centre d’analyse au CC-IN2P3 Promouvoir la création de Tier2/Tier3 et les coordonner et les intégrer dans la collaboration LCG Echelle de temps Début Juillet 2004 Deux phases 2004-2008:développement et accroissement des capacités 2009-…: phase de croisière Budget requis pour le Tier1 et le centre d’analyse 2005-2010: ~ 24 M€ Budget requis pour les Tier2s 2003-2009: > 6 M€ F. Malek
Structure du projet LCG-France Comité de Pilotage Directeur de l’IN2P3 Directeur Adjoint Technique de l’IN2P3 Représentant de la direction du DAPNIA Représentant IN2P3/DAPNIA de chacune des expériences LHC Responsable du projet LCG Instances W-LCG GDB,MB,OB, CB,… Equipe de Direction Responsable Scientifique Responsable Technique Coordinateur Technique Tier-2s/Tier-3s Directeur Adjoint Scienfique IN2P3 Chargé de l’Informatique Chargé de Mission à l’Informatique IN2P3 Chargé de Mission à l’Informatique DSM/CEA Directeur du Centre de Calcul de l’IN2P3 Responsable calcul de chacune des expériences LHC Responsable scientifique de chacun des Tier-2s/Tier-3s Autres Tier1s Tier2s associés F. Malek
Sites LCG-France Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE Tier3: IPHC IPNO Strasbourg Ile de France Tier3: IPNL Nantes Tier2: Subatech Tier3: LAPP Clermont-Ferrand Tier2: LPC Annecy Lyon AF: CC-IN2P3 Tier1: CC-IN2P3 Marseille Tier3: CPPM F. Malek
Sites LCG-France(suite) Supported LHC experiments All sites also support other virtual organizations F. Malek
Tier-1s et Tier-2 associés à ce jour FZK: Tier1 ATLAS backup du Tier1 ATLAS français liaison 10 Gbps BNL: Tier1 ATLAS associé FNAL: Tier1 CMS avec réseau dédié 2x 1 Gbps Tier2s Europe Belgique – 2 Tier2s CMS Fédération Roumaine - Tier2 ATLAS Asie IHEP Chine – Tier2s ATLAS et CMS ICEPP Japon - Tier2 ATLAS F. Malek
Ressources humaines pour le Tier1 RH au CC: 60 ETP 30 ETP fortement impliqués dans LCG dont 11 personnes financées par EGEE Embauches ITA: stabiliser les connaissances 1 en 2005, 3 en 200- et 4 en 2007 Participation Physiciens et User-Support ATLAS: bonne participation des physiciens et disponibilité 1 User-Support au CC Les 3 autres expériences: Manque de participation des physiciens et Pb d’embauche User-Support. F. Malek
Evolution des ressources du Tier1 Increase rate over the period 2006-2010: CPU: x 17 DISK: x 16 MSS: x 18 F. Malek
Total requis Tier1 + AF: 2005-2010: ~24 M€ Budget Tier1 requis: 2008-2010 Contributions 2005 2006 2007 2008 2009 2010 CNRS 1,35 M€ 2 M€ 4 M€ 5M€ 4M€ CEA* 0,6M€ 0,4M€ 0,8M€ 0,6 M€ Total 2,6 M€ 4,4 M€ 5,8 M€ 5,6 M€ 4,6 M€ *1,8 M € sont en principe prévus pour la période 2006-2008 * 0,6 M€ sont attendus pour 2009 et 2010 – encore en discussion Total requis Tier1 + AF: 2005-2010: ~24 M€ F. Malek
Evolution des ressources dans les Tier2s Roughly equivalent to the planned Tier-1 CPU capacity the same year 43% of the planned Tier-1 disk capacity the same year F. Malek
Total requis Tier2s 2003-2009: > 6 M€ Budget requis Tier2: 2007-2009 Tier-2s 2003 2004 2005 2006 2007 2008 2009 GRIF 226 k€ 335 k€ 517 k€ 1,18 M€ 1,04 M€ LPC Clermont 500 k€ 80 k€ 300 k€ 200 k€ CPER* CPER SUBATECH 10 k€ 176 k€ 170 k€ 150 k€ CNRS(4 Tier2s) 1M€ Total 0,5 M€ 0,08 M€ 0,54 M€ 0,71 M€ > 0,7 M€ > 1,33 M€ > 2,04 M€ * CPER 2007-2013: 1M€ pour Auvergrid dont 600 k€ CNRS; Part pour le LPC inconnue, en cours de discussions Total requis Tier2s 2003-2009: > 6 M€ F. Malek
Détails du Budget Tier1+AF 2007 2008 2009 2010 2007-2010 CPU 1,26 M€ 1,11 M€ 0,98 M€ 1,53 M€ 4,88 M€ Disk 1,09 M€ 1,15 M€ 1,58 M€ 4,91 M€ MSS 0,80 M€ 0,88 M€ 1,23 M€ 1,54 M€ 4,45 M€ Total Equipement Cost 3,15 M€ 3,14 M€ 3,30 M€ 4,65 M€ 14,23 M€ Maintenance, Operation and Infrastructure 0,79 M€ 0,82 M€ 0,96 M€ 1,40 M€ 3,97 M€ Contingency 0,59 M€ 0,64 M€ 0,91 M€ 2,73 M€ Previous Plan 4,57 M€ 6,16 M€ 4,14 M€ 4,75 M€ 19,62 M€ Revised Plan 4,52 M€ 4,56 M€ 4,90 M€ 6,96 M€ 20,93 M€ Variation wrt Previous Plan -1% -26% +18% +46% +7% CNRS planned to be pledged 4 M€ 5 M€ 18 M€ CEA Planned to be pledged 0,4 M€ 0,8 M€? 0,6 M€? 2,4 M€? Total planned to be pledged 4,4 M€ 5,8 M€ 5,6 M€ 4,6 M€ 20,4 M€ Variation wrt Revised Plan -3% 27% 14% -34% F. Malek
Conclusions Complexité du projet: Gestion de projet au CNRS/IN2P3 Vis-à-vis des Interlocuteurs Relations avec l’extérieur Réactivité avec les Pbs Difficulté de la vision long terme sur le budget Coordination avec les 4 expériences tests/validations besoins Suivi des analyses de risque next F. Malek
Risques et leur analyse Planification budgétaire quinquennale mais considération annuelle surprise + peu de flexibilité et de liberté d’utilisation Ressources humaines non suffisantes + risque de pertes CDD EGEE service grille et service général perturbés + perte d’expertise Pb Engagements Physiciens + manque User-Support . Risque de non extension du bâtiment du CC. Actuellement apport électrique jusqu’à 1 MW et jusqu’à 2008. Au-delà, risque d’interruption du service grille, arrêts machines fréquents perte de données Fiabilité et stabilité logiciels LCG + soft expériences interactions Physiciens F. Malek
Service aux expériences le plus efficace possible Conclusions Challenge Visibilité Animation scientifique importante Mutualisation des ressources françaises La création d’une communauté Impact technologique et scientifique dans les laboratoires Service aux expériences le plus efficace possible F. Malek