Infrastructure de grille LHC en France et ressources associées

Slides:



Advertisements
Présentations similaires
La Grille de Calcul du LHC
Advertisements

Planification budgétaire Tier-2s Tier-3s Fairouz Malek, Fabio Hernandez, Frédérique Chollet Comité de direction 7 juillet 2008.
Projet LCG-France Planning Ressources humaines
Frédéric Hemmer, CERN, Département ITLa Grille de Calcul du LHC – septembre 2007 La Grille de Calcul du LHC Frédéric Hemmer Adjoint au Chef du Département.
Journée Projets, 23 novembre 2010 Etienne Augé Directeur Adjoint Scientifique Physique des Particules Physique des Particules Projets 2011.
Enjeux, succès et défis des grilles en physique des hautes énergies Faïrouz Malek, CNRS Paris le 3 Décembre 2007.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
Grid au LAL Michel Jouvin LAL / IN2P3
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
EPILOGUE Fairouz Malek Fabio Hernandez 2 nd LCG-France Workshop Clermont, March 13 th -14 th 2007.
1 Le calcul LHC et son informatique à l’IN2P3 et au DAPNIA LCG-France Fairouz Malek.
LCG France point Réseau Mai 2013.
Tier2: Subatech Tier2: LPC Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO AF: CC-IN2P3 Tier3: LAPP Tier1: CC- IN2P3.
05-fevrier-2007Eric Lancon1 ATLAS Bilan Planning 2007.
Jeudi 12 decembre 2007 Le CC-IN2P3 Un instrument informatique de pointe au service de la recherche Traitement intensif de données et Sciences de la Vie.
Réunion Calcul LHC-France 30 Avril 2004 Buts et rôles du comité MoU: discussions ? Demande urgentes Quelques propositions … F. Ohlsson-Malek, LCG-F.
Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
Arnaud Marsollier - Perrine Royole-Degieux – réseaux de com - réunion des communicants de l’in2p3– 10 mai 2012 Perrine Royole-Degieux Les.
Vendredi 23 mars 2007 Le CC-IN2P3 Un instrument informatique de pointe au service de la recherche.
1 Stéphane JEZEQUEL JI06 Modèle de calcul d'ATLAS et Exercices en vraie grandeur de la grille WLCG par l'expérience ATLAS S. Jézéquel Journées Informatiques.
Projet LCG-France Planning Fairouz Malek, Fabio Hernandez Responsables LCG-France Journées projets de l’ IN2P3 Paris, 5 juillet 2007.
Autrans 1 er & 2 juin /05/15. Journées prospectives LPSC – Autrans 1 er & 2 juin thèmes retenus par le CU Organisation des projets au LPSC.
Réseau LCG-France LCG France 11/2008 Centre de Calcul de l'IN2P3/CNRS.
LCG France point Réseau Novembre 2013.
Gestion des données : DDM Distributed Data Management
La Grille de Calcul du LHC La Grille de Calcul du LHC
Rencontre Management Mécanique IN2P3
Laboratoire d’Informatique Système
Opérations France Grilles - structure et fonctions
Colloque Grille Rhône-Alpes
Vue d'ensemble de l'utilisation du CCIN2P3 par les expériences LHC
Un instrument informatique de pointe au service de la recherche
Bilan financier – feuille de route
Planification budgétaire Tier2s & Tier-3s Etat d’avancement
GRIF : Grille pour la Recherche en
Projet « France Tier-2 » et les conséquences pour France Grilles
ATLAS Computing model et utilisation de LCG
12 mars 2004, Lyon Reunion CAF F.Chollet 1
Initiative Méditerranée Contexte international et financier
POSITIONNEMENT CNES SUR LISA
Budget /11/09
Statut de la NGI et Vision du workshop France-Grilles
2ème coloque LCG-France
Statut du T2 Île de France
CONCLUSIONS ET PERSPECTIVES (Session Ouverte).
LCG-France Tier-1 & AF Réunion mensuelle de coordination
Le réseau des informaticiens de l’IN2P3 et de l’IRFU (RI3)
Résumé CB WLCG du 3 février 2005
L’exploitation des données du collisionneur LHC: un défi pour le calcul scientifique un enjeu pour le LAPP S. Jézéquel.
Le Projet GRIF Efficient Handling and processing of
La grille de calcul EGEE
Journées LCG-France Point IPv6
Projets en Physique des Particules en 2010
Organisation LCG-France Lien avec le computing LHC
France Grilles Formation DIRAC janvier 2018.
La grille EGEE dans le monde et à Orsay
Infrastructure Opérationnelle d’EGEE
Introduction à la Grille
GRIF : Site EGEE au Service de la Recherche en IdF
Réflexions pour la mise en place d’un LIA Maghreb
Représentant technique Représentant scientifique
Représentant technique Représentant scientifique
DC04 CMS Objectif Status Planning
Le Projet EGEE en bref Rolf Rumler (Présentée par Pierre Girard) Coordinateur projet EGEE au CCIN2P3 CIC Manager ROC Manager.
Comité Scientifique GRIF
LCG – France et ALICE Bilan 2006 Planning fevrier 2007
Résumé des Actions Suite aux Réunions CB et MB
Mise en place d’un Plan de Gestion des Données au GANIL
Michel Jouvin LAL/Orsay
Michel Jouvin LAL/Orsay
Transcription de la présentation:

Infrastructure de grille LHC en France et ressources associées Fairouz Malek Responsable Scientifique du projet LCG-France fmalek@in2p3.fr 2ème Colloque LCG-France Clermont-Ferrand, 14-15 Mars, 2007

Contenu LCG en bref LCG-France Conclusions Infrastructure Ressources de calcul Budget Conclusions F. Malek

Données LHC 40 millions collisions par seconde ~100 collisions d’intérêt scientifique par seconde Jusqu’à 10 MBytes de données digitisées par collision Taux jusqu’à 1 GBytes/sec 1010 collisions enregistrées par an Jusqu’à 15 PetaBytes/an F. Malek

Collaboration W-LCG But Phases Collaboration Ressources de calcul Développer, construire et maintenir une infrastructure de calcul distribué pour le stockage et l’analyse des 4 expériences LHC Phases Phase I: 2002-2005 développement et planning Phase II: 2006-2008 déploiement et mise en route (commissioning) Collaboration >100 centres de calcul dans le monde entier 11 grands centres et ~40 fédérationsde petits centres Memorandum of Understanding: accord en 2005 et signé par les partenaires du projet Ressources de calcul Planning sur 5 ans Engagement par les partenaires en octobre de l’année pour l’année à venir. F. Malek

LCG System Architecture Set of services and applications running on the grid infrastructures provided by EGEE (Europe and Asia Pacific) and Open Science Grid (USA) F. Malek

LCG System Architecture (suite) Tier0 Trigger and Data Acquisition System 10 Gbps links Optical Private Network (to almost all sites) Tier1 General Purpose/Academic/Research Network Tier2 F. Malek

Experiments served with priority Centres Tier1 Institution Country Experiments served with priority ALICE ATLAS CMS LHCb TRIUMF Canada  CC-IN2P3 France FZK-GridKA Germany CNAF Italy NIKHEF/SARA Netherlands     Nordic Data Grid Facility DK/FI/NO/SE PIC Spain ASGC Taiwan RAL United Kingdom BNL USA FNAL Total 6 10 8 Source: CRRB – WLCG Memorandum of Understanding – 2006/06/01 F. Malek

LCG System Architecture (suite) Ressources de calcul requises Pour les 4 expériences pour l’année 2008 CERN (T0 + AF) All Tier1s All Tier2s Total CPU [SpecInt2000] 25 M 56 M 61 M 142 M Disk [PB] 7 31 19 57 Mass Storage 18 35   53 More than 53.000 today’s dual-core AMD Opteron Around 355 TFLOPS F. Malek

LCG-France But Echelle de temps Mise en place, développement et maintenance d’un Tier1 et d’un centre d’analyse au CC-IN2P3 Promouvoir la création de Tier2/Tier3 et les coordonner et les intégrer dans la collaboration LCG Echelle de temps Début Juillet 2004 Deux phases 2004-2008:développement et accroissement des capacités 2009-…: phase de croisière Budget requis pour le Tier1 et le centre d’analyse 2005-2010: ~ 24 M€ Budget requis pour les Tier2s 2003-2009: > 6 M€ F. Malek

Structure du projet LCG-France Comité de Pilotage Directeur de l’IN2P3 Directeur Adjoint Technique de l’IN2P3 Représentant de la direction du DAPNIA Représentant IN2P3/DAPNIA de chacune des expériences LHC Responsable du projet LCG Instances W-LCG GDB,MB,OB, CB,… Equipe de Direction Responsable Scientifique Responsable Technique Coordinateur Technique Tier-2s/Tier-3s Directeur Adjoint Scienfique IN2P3 Chargé de l’Informatique Chargé de Mission à l’Informatique IN2P3 Chargé de Mission à l’Informatique DSM/CEA Directeur du Centre de Calcul de l’IN2P3 Responsable calcul de chacune des expériences LHC Responsable scientifique de chacun des Tier-2s/Tier-3s Autres Tier1s Tier2s associés F. Malek

Sites LCG-France Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE Tier3: IPHC IPNO Strasbourg Ile de France Tier3: IPNL Nantes Tier2: Subatech Tier3: LAPP Clermont-Ferrand Tier2: LPC Annecy Lyon AF: CC-IN2P3 Tier1: CC-IN2P3 Marseille Tier3: CPPM F. Malek

Sites LCG-France(suite) Supported LHC experiments All sites also support other virtual organizations F. Malek

Tier-1s et Tier-2 associés à ce jour FZK: Tier1 ATLAS backup du Tier1 ATLAS français liaison 10 Gbps BNL: Tier1 ATLAS associé FNAL: Tier1 CMS avec réseau dédié 2x 1 Gbps Tier2s Europe Belgique – 2 Tier2s CMS Fédération Roumaine - Tier2 ATLAS Asie IHEP Chine – Tier2s ATLAS et CMS ICEPP Japon - Tier2 ATLAS F. Malek

Ressources humaines pour le Tier1 RH au CC: 60 ETP 30 ETP fortement impliqués dans LCG dont 11 personnes financées par EGEE Embauches ITA: stabiliser les connaissances 1 en 2005, 3 en 200- et 4 en 2007 Participation Physiciens et User-Support ATLAS: bonne participation des physiciens et disponibilité 1 User-Support au CC Les 3 autres expériences: Manque de participation des physiciens et Pb d’embauche User-Support. F. Malek

Evolution des ressources du Tier1 Increase rate over the period 2006-2010: CPU: x 17 DISK: x 16 MSS: x 18 F. Malek

Total requis Tier1 + AF: 2005-2010: ~24 M€ Budget Tier1 requis: 2008-2010 Contributions 2005 2006 2007 2008 2009 2010 CNRS 1,35 M€ 2 M€ 4 M€ 5M€ 4M€ CEA* 0,6M€ 0,4M€ 0,8M€ 0,6 M€ Total 2,6 M€ 4,4 M€ 5,8 M€ 5,6 M€ 4,6 M€ *1,8 M € sont en principe prévus pour la période 2006-2008 * 0,6 M€ sont attendus pour 2009 et 2010 – encore en discussion Total requis Tier1 + AF: 2005-2010: ~24 M€ F. Malek

Evolution des ressources dans les Tier2s Roughly equivalent to the planned Tier-1 CPU capacity the same year 43% of the planned Tier-1 disk capacity the same year F. Malek

Total requis Tier2s 2003-2009: > 6 M€ Budget requis Tier2: 2007-2009 Tier-2s 2003 2004 2005 2006 2007 2008 2009 GRIF 226 k€ 335 k€ 517 k€ 1,18 M€ 1,04 M€ LPC Clermont 500 k€ 80 k€ 300 k€ 200 k€ CPER* CPER SUBATECH 10 k€ 176 k€ 170 k€ 150 k€ CNRS(4 Tier2s) 1M€ Total 0,5 M€ 0,08 M€ 0,54 M€ 0,71 M€ > 0,7 M€ > 1,33 M€ > 2,04 M€ * CPER 2007-2013: 1M€ pour Auvergrid dont 600 k€ CNRS; Part pour le LPC inconnue, en cours de discussions Total requis Tier2s 2003-2009: > 6 M€ F. Malek

Détails du Budget Tier1+AF 2007 2008 2009 2010 2007-2010 CPU 1,26 M€ 1,11 M€ 0,98 M€ 1,53 M€ 4,88 M€ Disk 1,09 M€ 1,15 M€ 1,58 M€ 4,91 M€ MSS 0,80 M€ 0,88 M€ 1,23 M€ 1,54 M€ 4,45 M€ Total Equipement Cost 3,15 M€ 3,14 M€ 3,30 M€ 4,65 M€ 14,23 M€ Maintenance, Operation and Infrastructure 0,79 M€ 0,82 M€ 0,96 M€ 1,40 M€ 3,97 M€ Contingency 0,59 M€ 0,64 M€ 0,91 M€ 2,73 M€ Previous Plan 4,57 M€ 6,16 M€ 4,14 M€ 4,75 M€ 19,62 M€ Revised Plan 4,52 M€ 4,56 M€ 4,90 M€ 6,96 M€ 20,93 M€ Variation wrt Previous Plan   -1% -26% +18% +46% +7% CNRS planned to be pledged   4 M€ 5 M€ 18 M€ CEA Planned to be pledged 0,4 M€ 0,8 M€? 0,6 M€? 2,4 M€? Total planned to be pledged 4,4 M€ 5,8 M€ 5,6 M€ 4,6 M€ 20,4 M€ Variation wrt Revised Plan -3% 27% 14% -34% F. Malek

Conclusions Complexité du projet: Gestion de projet au CNRS/IN2P3 Vis-à-vis des Interlocuteurs Relations avec l’extérieur Réactivité avec les Pbs Difficulté de la vision long terme sur le budget Coordination avec les 4 expériences  tests/validations  besoins Suivi des analyses de risque  next F. Malek

Risques et leur analyse Planification budgétaire quinquennale mais considération annuelle  surprise + peu de flexibilité et de liberté d’utilisation Ressources humaines non suffisantes + risque de pertes CDD EGEE  service grille et service général perturbés + perte d’expertise Pb Engagements Physiciens + manque User-Support . Risque de non extension du bâtiment du CC. Actuellement apport électrique jusqu’à 1 MW et jusqu’à 2008. Au-delà, risque d’interruption du service grille, arrêts machines fréquents  perte de données Fiabilité et stabilité logiciels LCG + soft expériences  interactions Physiciens F. Malek

Service aux expériences le plus efficace possible Conclusions Challenge Visibilité Animation scientifique importante Mutualisation des ressources françaises La création d’une communauté Impact technologique et scientifique dans les laboratoires Service aux expériences le plus efficace possible F. Malek