La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Infrastructure de grille LHC en France et ressources associées

Présentations similaires


Présentation au sujet: "Infrastructure de grille LHC en France et ressources associées"— Transcription de la présentation:

1 Infrastructure de grille LHC en France et ressources associées
Fairouz Malek Responsable Scientifique du projet LCG-France 2ème Colloque LCG-France Clermont-Ferrand, Mars, 2007

2 Contenu LCG en bref LCG-France Conclusions Infrastructure
Ressources de calcul Budget Conclusions F. Malek

3 Données LHC 40 millions collisions par seconde
~100 collisions d’intérêt scientifique par seconde Jusqu’à 10 MBytes de données digitisées par collision Taux jusqu’à 1 GBytes/sec 1010 collisions enregistrées par an Jusqu’à 15 PetaBytes/an F. Malek

4 Collaboration W-LCG But Phases Collaboration Ressources de calcul
Développer, construire et maintenir une infrastructure de calcul distribué pour le stockage et l’analyse des 4 expériences LHC Phases Phase I: développement et planning Phase II: déploiement et mise en route (commissioning) Collaboration >100 centres de calcul dans le monde entier 11 grands centres et ~40 fédérationsde petits centres Memorandum of Understanding: accord en 2005 et signé par les partenaires du projet Ressources de calcul Planning sur 5 ans Engagement par les partenaires en octobre de l’année pour l’année à venir. F. Malek

5 LCG System Architecture
Set of services and applications running on the grid infrastructures provided by EGEE (Europe and Asia Pacific) and Open Science Grid (USA) F. Malek

6 LCG System Architecture (suite)
Tier0 Trigger and Data Acquisition System 10 Gbps links Optical Private Network (to almost all sites) Tier1 General Purpose/Academic/Research Network Tier2 F. Malek

7 Experiments served with priority
Centres Tier1 Institution Country Experiments served with priority ALICE ATLAS CMS LHCb TRIUMF Canada CC-IN2P3 France FZK-GridKA Germany CNAF Italy NIKHEF/SARA Netherlands   Nordic Data Grid Facility DK/FI/NO/SE PIC Spain ASGC Taiwan RAL United Kingdom BNL USA FNAL Total 6 10 8 Source: CRRB – WLCG Memorandum of Understanding – 2006/06/01 F. Malek

8 LCG System Architecture (suite)
Ressources de calcul requises Pour les 4 expériences pour l’année 2008 CERN (T0 + AF) All Tier1s All Tier2s Total CPU [SpecInt2000] 25 M 56 M 61 M 142 M Disk [PB] 7 31 19 57 Mass Storage 18 35 53 More than today’s dual-core AMD Opteron Around 355 TFLOPS F. Malek

9 LCG-France But Echelle de temps
Mise en place, développement et maintenance d’un Tier1 et d’un centre d’analyse au CC-IN2P3 Promouvoir la création de Tier2/Tier3 et les coordonner et les intégrer dans la collaboration LCG Echelle de temps Début Juillet 2004 Deux phases :développement et accroissement des capacités 2009-…: phase de croisière Budget requis pour le Tier1 et le centre d’analyse : ~ 24 M€ Budget requis pour les Tier2s : > 6 M€ F. Malek

10 Structure du projet LCG-France
Comité de Pilotage Directeur de l’IN2P3 Directeur Adjoint Technique de l’IN2P3 Représentant de la direction du DAPNIA Représentant IN2P3/DAPNIA de chacune des expériences LHC Responsable du projet LCG Instances W-LCG GDB,MB,OB, CB,… Equipe de Direction Responsable Scientifique Responsable Technique Coordinateur Technique Tier-2s/Tier-3s Directeur Adjoint Scienfique IN2P3 Chargé de l’Informatique Chargé de Mission à l’Informatique IN2P3 Chargé de Mission à l’Informatique DSM/CEA Directeur du Centre de Calcul de l’IN2P3 Responsable calcul de chacune des expériences LHC Responsable scientifique de chacun des Tier-2s/Tier-3s Autres Tier1s Tier2s associés F. Malek

11 Sites LCG-France Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE Tier3: IPHC IPNO
Strasbourg Ile de France Tier3: IPNL Nantes Tier2: Subatech Tier3: LAPP Clermont-Ferrand Tier2: LPC Annecy Lyon AF: CC-IN2P3 Tier1: CC-IN2P3 Marseille Tier3: CPPM F. Malek

12 Sites LCG-France(suite)
Supported LHC experiments All sites also support other virtual organizations F. Malek

13 Tier-1s et Tier-2 associés à ce jour
FZK: Tier1 ATLAS backup du Tier1 ATLAS français liaison 10 Gbps BNL: Tier1 ATLAS associé FNAL: Tier1 CMS avec réseau dédié 2x 1 Gbps Tier2s Europe Belgique – 2 Tier2s CMS Fédération Roumaine - Tier2 ATLAS Asie IHEP Chine – Tier2s ATLAS et CMS ICEPP Japon - Tier2 ATLAS F. Malek

14 Ressources humaines pour le Tier1
RH au CC: 60 ETP 30 ETP fortement impliqués dans LCG dont 11 personnes financées par EGEE Embauches ITA: stabiliser les connaissances 1 en 2005, 3 en 200- et 4 en 2007 Participation Physiciens et User-Support ATLAS: bonne participation des physiciens et disponibilité 1 User-Support au CC Les 3 autres expériences: Manque de participation des physiciens et Pb d’embauche User-Support. F. Malek

15 Evolution des ressources du Tier1
Increase rate over the period : CPU: x 17 DISK: x 16 MSS: x 18 F. Malek

16 Total requis Tier1 + AF: 2005-2010: ~24 M€
Budget Tier1 requis: Contributions 2005 2006 2007 2008 2009 2010 CNRS 1,35 M€ 2 M€ 4 M€ 5M€ 4M€ CEA* 0,6M€ 0,4M€ 0,8M€ 0,6 M€ Total 2,6 M€ 4,4 M€ 5,8 M€ 5,6 M€ 4,6 M€ *1,8 M € sont en principe prévus pour la période * 0,6 M€ sont attendus pour 2009 et 2010 – encore en discussion Total requis Tier1 + AF: : ~24 M€ F. Malek

17 Evolution des ressources dans les Tier2s
Roughly equivalent to the planned Tier-1 CPU capacity the same year 43% of the planned Tier-1 disk capacity the same year F. Malek

18 Total requis Tier2s 2003-2009: > 6 M€
Budget requis Tier2: Tier-2s 2003 2004 2005 2006 2007 2008 2009 GRIF 226 k€ 335 k€ 517 k€ 1,18 M€ 1,04 M€ LPC Clermont 500 k€ 80 k€ 300 k€ 200 k€ CPER* CPER SUBATECH 10 k€ 176 k€ 170 k€ 150 k€ CNRS(4 Tier2s) 1M€ Total 0,5 M€ 0,08 M€ 0,54 M€ 0,71 M€ > 0,7 M€ > 1,33 M€ > 2,04 M€ * CPER : 1M€ pour Auvergrid dont 600 k€ CNRS; Part pour le LPC inconnue, en cours de discussions Total requis Tier2s : > 6 M€ F. Malek

19 Détails du Budget Tier1+AF
2007 2008 2009 2010 CPU 1,26 M€ 1,11 M€ 0,98 M€ 1,53 M€ 4,88 M€ Disk 1,09 M€ 1,15 M€ 1,58 M€ 4,91 M€ MSS 0,80 M€ 0,88 M€ 1,23 M€ 1,54 M€ 4,45 M€ Total Equipement Cost 3,15 M€ 3,14 M€ 3,30 M€ 4,65 M€ 14,23 M€ Maintenance, Operation and Infrastructure 0,79 M€ 0,82 M€ 0,96 M€ 1,40 M€ 3,97 M€ Contingency 0,59 M€ 0,64 M€ 0,91 M€ 2,73 M€ Previous Plan 4,57 M€ 6,16 M€ 4,14 M€ 4,75 M€ 19,62 M€ Revised Plan 4,52 M€ 4,56 M€ 4,90 M€ 6,96 M€ 20,93 M€ Variation wrt Previous Plan -1% -26% +18% +46% +7% CNRS planned to be pledged 4 M€ 5 M€ 18 M€ CEA Planned to be pledged 0,4 M€ 0,8 M€? 0,6 M€? 2,4 M€? Total planned to be pledged 4,4 M€ 5,8 M€ 5,6 M€ 4,6 M€ 20,4 M€ Variation wrt Revised Plan -3% 27% 14% -34% F. Malek

20 Conclusions Complexité du projet: Gestion de projet au CNRS/IN2P3
Vis-à-vis des Interlocuteurs Relations avec l’extérieur Réactivité avec les Pbs Difficulté de la vision long terme sur le budget Coordination avec les 4 expériences  tests/validations  besoins Suivi des analyses de risque  next F. Malek

21 Risques et leur analyse
Planification budgétaire quinquennale mais considération annuelle  surprise + peu de flexibilité et de liberté d’utilisation Ressources humaines non suffisantes + risque de pertes CDD EGEE  service grille et service général perturbés + perte d’expertise Pb Engagements Physiciens + manque User-Support . Risque de non extension du bâtiment du CC. Actuellement apport électrique jusqu’à 1 MW et jusqu’à Au-delà, risque d’interruption du service grille, arrêts machines fréquents  perte de données Fiabilité et stabilité logiciels LCG + soft expériences  interactions Physiciens F. Malek

22 Service aux expériences le plus efficace possible
Conclusions Challenge Visibilité Animation scientifique importante Mutualisation des ressources françaises La création d’une communauté Impact technologique et scientifique dans les laboratoires Service aux expériences le plus efficace possible F. Malek


Télécharger ppt "Infrastructure de grille LHC en France et ressources associées"

Présentations similaires


Annonces Google