LCG-France: Tier-1 au CC-IN2P3 Bilan 2005 et perspectives 2006 Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3

Slides:



Advertisements
Présentations similaires
Projet de Virtualisation dans le cadre d’un PCA/PRA
Advertisements

LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
18 avril 2002réunion Datagrid France1 E-toile Plate-forme RNTL 2001 Environnement matériel et logiciel pour le développement et l expérimentation de grille.
C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y Pierre-Yves Paris Retour dexpérience sur une externalisation de.
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
1 Le calcul et linformatique à lIN2P3 et au DAPNIA Prospectives, La colle sur Loup 2004 Contributions:B. Boutherin (sécurité), J. Delabrouille (Astro-particules),
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Nouvelles du CC-IN2P3 Réunion des sites-LCG France 22 novembre 2010 Dominique Boutigny.
Services de production grille en France Gilles Mathieu IN2P3-CC France Grilles Frédérique Chollet IN2P3-LAPP LCG France Rencontres France Grilles et LCG-France,
PROJET AssetFrame IT ASSET MANAGEMENT Demo.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Projet LCG: Déploiement Pierre Girard EGEE/LCG ROC EGEE/LCG site deployment Centre de Calcul de l’IN2P3 LCG France Lyon, 14 décembre.
Réunion LCG-France, 7/4/2008 C.Charlot Acc è s aux donn é es Accès à dCache Problèmes de stageout des fichiers produits sur les WNs  Aussi pour le stagein.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
CMS ATLAS LHCb CERN Tier 0 Centre at CERN National Centres Lab a Russia Lab c Uni n Lab b Manno Canada Uni y Uni x Tier3 physics department  Ge  Germany.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Activités et actualités de la Direction Technique Hélène Cordier, Gilles Mathieu – 10/01/2012 – CTE10 CTE 10 – 10 janvier 2012.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Contact Sécurité du ROC français R. Rumler.
Verviers Ville sans papier Une démarche progressive …
Ministère de la Fonction Publique et de la Modernisation de l’Administration Rencontre mensuelle avec les responsables informatiques des départements ministériels.
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
L’environnement Labo : nom du labo (PP, PN, Astro éventuellement dans l’ordre d’importance) Effectif du labo : xxx personnes Nombre d’IT : xxx dont au.
Le noeud de grille Tier 3 LAPP.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Transition vers EGEE-III (et EGI?) Pierre.
Service Challenge 4 – Tests de Débit Bilan pour le Tier-1 LCG-France Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
DataGrid, LCG, EGEE au CC Rolf Rumler Coordinateur EGEE au CC
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Sites Pilotes Généralisation
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
1 Le groupe exploitation informatique au LAL Réalisations 2010 et projets 2011 Infrastructures de la Salle Machines Grille Services centraux et réseau.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
ATLAS Ghita Rahal CC-IN2P3 Novembre 9, /6/2006Réunion CAF2 Activités Création et externalisation d’outils de monitoring de l’état du T1 (CPU,
LHCb DC06 status report (LHCb Week, 13/09/06) concernant le CC : –Site currently fine / stable 3% of simulatated events 30% of reconstructed events –Site.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
GRIF Status Michel Jouvin LAL/Orsay
Retour d'expérience de l'utilisation du cloud comme infrastructure de service Guillaume PHILIPPON.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Bilan 2012, perspectives 2013 Conseil de Groupement – 21/2/2013 V. Breton La grandeur des actions humaines se mesure à l’inspiration qui les fait naître.
Catalogues de fichiers de données. David Bouvet2 Problématique Possibilité de répliquer les fichiers sur divers SE  nécessité d’un catalogue de fichiers.
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
Retour d'expérience sur le déploiement d'un site grille de production Pierre Girard EGEE/LCG ROC Deputy EGEE/LCG RC coordinator Centre de Calcul de l’IN2P3.
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
Grid au LAL Michel Jouvin LAL / IN2P3
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
8 avril 2005Comité lcg France1 Comité LCG France du 8 avril 2005 Philippe GAILLARDON Équipe stockage URL Marchés de stockage.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
1 Le calcul LHC et son informatique à l’IN2P3 et au DAPNIA LCG-France Fairouz Malek.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
Groupe de travail Monitoring LCG-France / SA1-FR Christine Leroy Pierre Girard Fabio Hernandez Frédérique Chollet.
Mai 2016 Mme Zgoulli Mouna Directeur Central Informatique Diffusion & Coordination Technologies Mobiles pour la collecte et la diffusion des données statistiques.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Mercredi 22 juin 2016 Suivi des jobs grille Colloque LCG France Mars 2007.
Page 1 Département Office Département des constructions et des technologies de l'information Département de l'instruction publique SIEF MEMO.
Ghita Rahal Lyon, 17 Avril 2008 Outils d’information et de suivi pour l’utilisateur.
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
08/02/2007 Site Grille : Ambitions 2007 Pierre Girard LCG-France Tier
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Transcription de la présentation:

LCG-France: Tier-1 au CC-IN2P3 Bilan 2005 et perspectives 2006 Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Workshop LCG-France Lyon, 14/15 décembre 2005

F. Hernandez 2 Table des Matières Contribution du Tier-1 français Avancement 2005  Travaux d’infrastructure  Acquisition du matériel  Utilisation des services de calcul et stockage  Exploitation  Support Utilisateurs  Infrastructure d’import/export de données Conclusions

F. Hernandez 3 Centres Tier-1 InstitutionCountry Experiments served with priority ALICEATLASCMSLHCb TRIUMFCanada  CC-IN2P3France  FZK-GridKAGermany  CNAFItaly  NIKHEF/SARANetherlands    Nordic Data Grid FacilityDK/FI/NO/SE   PICSpain  ASGCTaiwan   RALUnited Kingdom  BNLUSA  FNALUSA  Total61076

F. Hernandez 4 LCG: Vue d’Ensemble Comparatif des ressources proposées vs. demandées  Pour l’ensemble des centres Tier-1 en 2008 Source: Draft W-LCG Memorandum of Understanding - Nov. 16th 2005Draft W-LCG Memorandum of Understanding NOTE CPU: -17% Disk: -25% MSS: -36% NOTE CPU: -17% Disk: -25% MSS: -36%

F. Hernandez 5 LCG-France: contribution Contribution du Tier-1 LCG-France  En pourcentage des ressources proposées par l’ensemble des Tier-1s en 2008 Source: Draft W-LCG Memorandum of Understanding - Nov. 16th 2005Draft W-LCG Memorandum of Understanding

F. Hernandez 6 LCG-France: contribution (cont.) Contribution du Tier-1 LCG-France  En pourcentage des ressources demandées par les 4 expériences pour l’ensemble des Tier-1s en 2008 Source: Draft W-LCG Memorandum of Understanding - Nov. 16th 2005Draft W-LCG Memorandum of Understanding

F. Hernandez 7 LCG-France: contribution (cont.) Contribution du Tier-1 LCG-France  En pourcentage des ressources demandées par les 4 expériences pour l’ensemble des Tier-1s en 2008

F. Hernandez 8 Travaux d’Infrastructure Démarrage de l’étude pour la réhabilitation de la salle machine Equipement salle machine  Installation de 2 armoires supplémentaires de climatisation et 2 armoires de distribution électrique Bâtiment  Travaux de numérisation des plans du bâtiment par un architecte Embauche d’un ingénieur services généraux très expérimenté Travaux d’aménagement (salles de réunion, bureaux) pour absorber l’augmentation en personnel

F. Hernandez 9 Travaux d’Infrastructure (suite) Travaux prévus pour 2006  Travaux de réhabilitation de la salle machine  Augmentation de l’autonomie d’alimentation sur batterie  actuellement: 1,5 heures, but: ~3 heures  Travaux de renforcement de la sécurité incendie  Installation d’une armoire de climatisation supplémentaire  Etude du forage d'un nouveau puits d'eau de refroidissement pour la salle machine

F. Hernandez 10 Acquisition de Matériel Procédures d’acquisition de matériel bien établies  8 contrats ont été signés pendant les 12 derniers mois, concernant maintenance matérielle et logicielle, acquisition des licences logicielles, acquisition de serveurs de disque et de bande, machines de calcul, cartouches magnétiques, …  Implication forte et constante du personnel administratif et technique  Tests de prototypes, établissement du cahier des charges, suivi des procédures administratives, tests de conformité du matériel, ….  Un chargé de mission (ingénieur senior) pilote le processus: des tests jusqu’à la réception du matériel  Objectif: minimiser l’intervention nécessaire du personnel administratif et s’assurer que les délais sont sous contrôle Durée du processus dépend de l’objet (et du montant) du marché  Environ 36 semaines entre la décision d’achat et le début de la mise en production  Peut être raccourci d’environ 10% dans certains cas

F. Hernandez 11 Acquisition de Matériel (suite) Serveurs de calcul  Depuis novembre 2004: 384 machines (biprocesseur Xeon 2.8 et 3.0 GHz, 2 GO/processeur)  Capacité installée: 1480 kSI2000  En commande: 37 machines bi-Opteron, bi-cœur, 2 GO/cœur (Blade et 1U)  +203 kSI2000  Préparation de l’achat des serveurs de calcul en 2006 Stockage sur disque  Deux lots de 100 TO IBM DS8000  sur un marché de 250 TO  60 serveurs Sun (Solaris et Linux) et 19 serveurs IBM (AIX) pour piloter cet espace

F. Hernandez 12 Acquisition de Matériel (suite) Stockage sur cartouche  10 dérouleurs STK 9940  Dont 10 minimum pour les Services Challenges LCG  Capacité installée: 70 dérouleurs STK 9840/ DLTs + 2 LTOs  En commande: 10 dérouleurs STK 9940  Intégration à la production début 2006  6000 cartouches 9940  Serveur maître HPSS supplémentaire et mise à jour d’un serveur existant  8 serveurs de bande Connectique  2 x commutateur/routeurs  Commutateur FibreChannel pour les serveurs de bande

F. Hernandez 13 Acquisition de Matériel (suite) Machines de service pour les service grille  VO Boxes, LFC, FTS, VOMS, MonBox, … Machines pour le Storage Element SRM/dCache Cluster Oracle 10g R2  Serveurs: 2 x Sun V480 et 1 x Sun V240  1 TO de disque Cluster Web Renouvellement du matériel pour le service de visio-conférence

F. Hernandez 14 Service Calcul Améliorations dans BQS pour supporter la charge croissante  + 20% jobs en exécution simultanée (~2300 actuellement)  Nombre de jobs en queue reste constant: ~10000 en moyenne  Prise en compte des particularités amenées par la grille  Identification des individus, traçabilité des jobs, origine des jobs (grille et VO), support des certificats et des proxies, étiquettage des jobs pour améliorer l’ordonnancement et contrôler l’accès aux ressources (ex. HPSS) …  Amélioration des outils de monitoring des jobs  Détection er prévention de jobs pathologiques Renforcement de l’équipe chargée de l’exploitation quotidienne: ~2 FTE

F. Hernandez 15 Service de Calcul (suite) Consommation de calcul des expériences LHC  janvier-novembre 2005

F. Hernandez 16 Service de Calcul (suite) Distribution de la consommation LHC

F. Hernandez 17 Service de Calcul (suite) Demande vs. consommation effective  Globalement, la consommation LHC est de 36% de la capacité demandée

F. Hernandez 18 Service de Calcul (suite) Alice Atlas

F. Hernandez 19 Service de Calcul (suite) CMS LHCb

F. Hernandez 20 Service de Calcul (suite) Utilisation de la grille

F. Hernandez 21 Service de Calcul (suite) Utilisation de la grille (suite)  Jobs grille en queue et en exécution

F. Hernandez 22 Stockage Disque Semiper (/sps)

F. Hernandez 23 Stockage Disque (suite) dCache (prod) dCache (test) Cache HPSS xrootdSemiper Total (TB) Request ed (TB) Alice 0,00 0,500,001,602,1019,00 Atlas 3,000,000,500,002,856,3540,00 CMS 9,003,001,500,002,6016,1025,00 LHCb 2,500,00 2,503,00 Shared 4,504,002,00 10,50 Total (TB) 19,007,004,500,007,0537,5587,00 Demandes en cours: ATLAS: + 2TB dCache Alice: +10 TB xrootd Demandes en cours: ATLAS: + 2TB dCache Alice: +10 TB xrootd

F. Hernandez 24 Stockage de Masse Utilisation de HPSS

F. Hernandez 25 Stockage de Masse (suite) Used (TB) Requested (TB) Variation in 2005 Alice 27,5617,00+172% Atlas 78,3380,00+63% CMS 71,3450,00+202% LHCb 51,9930,00+97% Total (TB) 229,22177,00 Utilisation de HPSS (suite)

F. Hernandez 26 Services Grid Amélioration du déploiement du middleware  Installation partagée via AFS par tous les WNs, VO boxes, UIs  Installation personnalisée pour les CEs et SEs  5 versions de LCG installées en 2005: 2.3.0, 2.3.1, 2.4.0, 2.5.0, Créations des queues virtuelles  À la demande initiale de Atlas, utilisation généralisée par la suite  Affichage des ressources de calcul disponibles par VO dans le système d’information du site Travail réalisé par Pierre Girard, Jonathan Schaeffer et Frédéric Schaer  Interaction permanente avec les équipes système et réseau, production, bases de données et stockage En cours: développement de l’interface BQS pour le CE gLite par Sylvain Reynaud

F. Hernandez 27 Services Grid (suite) AtlasAliceCMSLHCb CE et WNs  SE disque et HPSS  SE SRM/dCache  UIs  FTS  LFC  MonBox  VO Box 

F. Hernandez 28 Service de bases de données Projet LCG-3D: réplication de bases de données  Utilisation des technologies Oracle pour la réplication  Installation de Oracle 10  Participation au banc de test de réplication  Tests initiaux de réplication avec le CERN avec succès  Augmentation de notre contribution à partir du premier trimestre 2006 Hébergement de la base AMI (Atlas)  Tests de réplication en 2006

F. Hernandez 29 Import/Export de Données Infrastructure spécifique  Exercée à l’occasion des services challenges Utilisation de la ligne Lyon – CERN (1 Gbps partagée)  green = data going into the site SC 2

F. Hernandez 30 Import/Export de Données (suite) Configuration spécifique

F. Hernandez 31 Import/Export de Données (suite) Objective for SC3 Service Challenge 3  Objectif phase throughput: 60 MO/sec  Disque (CERN) → bande (CC-IN2P3)  Atteints: 40 MB/sec

F. Hernandez 32 Import/Export de Données (suite) SC3: transferts CERN → CC-IN2P3

F. Hernandez 33 Import/Export de Données (suite) Transferts CERN → CC- IN2P3 via DDM (Atlas)

F. Hernandez 34 Import/Export de Données (suite) Transferts CERN → CC-IN2P3 via Phedex (CMS)

F. Hernandez 35 Import/Export de Données (suite) Plus de détails sur les Service Challenges dans les présentations de Nick Brook et Lionel Schwarz pendant le workshop LCG- France  Excellent travail de Lionel Schwarz (notre expert dCache) et toute l’équipe stockage  Étroite collaboration avec les représentants des expériences (Claude Charlot, Stéphane Jezequel, Andrei Tsaregorodtsev)

F. Hernandez 36 Operations Contribution très active à la mise en place des procédures d’exploitation globale de la grille Ian Bird, 2 nd EGEE Review, Dec. 6-7/2005

F. Hernandez 37 Operations (suite) Développement et hébergement du portail de l’exploitation quotidienne de LCG/EGEE Ian Bird, 2 nd EGEE Review, Dec. 6-7/2005

F. Hernandez 38 Operations (suite) Travail en cours sur les mécanismes et outils pour mesurer la qualité des services (a.k.a. métriques)  Identification des éléments à mesurer et construction des outils  Travail étroit avec le CERN Merci à Hélène Cordier, Gilles Mathieu et toute l’équipe portail CIC et COD pour cette contribution … et à Rolf Rumler pour la coordination de EGEE sur site

F. Hernandez 39 Support Utilisateur Support aux utilisateurs LHC à plusieurs niveaux  Services grille  Installation logiciel de l’expérience  Production batch  Stockage, Stockage, Stockage !!! Première étape vers la consolidation du support utilisateurs LHC  Embauche d’un ingénieur, actuellement dédié au support de CMS et Alice  Embauche supplémentaire en cours Travail étroit avec des correspondants/experts des expériences  En France et/ou au CERN

F. Hernandez 40 Support Utilisateur (suite) Arrivée de Artem Trunov pour Alice et CMS a augmenté sensiblement notre contribution aux expériences  Travail étroit avec David Bouvet  Responsabilités bien définies

F. Hernandez 41 Conclusions L’impact du projet LCG sur le site est très important, à tous les niveaux  Budget, organisation, mode de fonctionnement, … Rythme du projet et très soutenu et nous devons nous adapter en permanence  Les ressources humaines sont la clé pour réussir notre contribution à ce projet Quantité, disponibilité et volatilité de l’information sont une des caractéristiques de ce projet Implication des membres des expériences est fondamentale pour maximiser la contribution du site au projet

F. Hernandez 42 Questions

F. Hernandez 43 Backup Slides

F. Hernandez 44 Stockage Disque (suite) Semiper (suite)

F. Hernandez 45 Stockage Disque (suite) Semiper (suite)

F. Hernandez 46 Stockage Disque (suite) Semiper (suite)