Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.

Slides:



Advertisements
Présentations similaires
Contexte 1500 MW fin MW fin MW fin 2008
Advertisements

Introduction aux réseaux informatiques
Microsoft Office Groove Le contexte Une utilisation des postes de travail en très grande évolution chez les professionnels. Des lieux de travail.
Fête de la Science 2011 Le LHC et ses expériences des géants pour sonder le coeur de la matière Bienvenue au Laboratoire De Physique Subatomique et de.
Commissioning du calorimètre central à argon liquide d’ATLAS:
DataGRID PTB, Geneva, 10 April 2002 ATLAS Data Challenges Fede Eric.
Système de stockage réseaux NAS - SAN
Présentation application GRBL France Telecom
3 avril 2007IFAP - Débat thématique "Conservation numérique"1 Conservation des publications électroniques et du dépôt légal Catherine Lupovici Département.
Krowten Emagyp Jeu réseau à interaction en temps réel.
La Grille de Calcul du LHC
Lyon, 24/04/2007 Ce que l'application a besoin de connaître: Paramètres physiques par scénario de 150 ans Nombre et numéro d'ordre des mois à effectuer.
Valorisation Forfait Informatique. Page 2 Avantages de base Sans Forfait InformatiqueAvec Forfait Informatique Compétences Ressources Peu de compétences.
Protéger Exchange avec System Center Data Protection Manager 2007
Vue d'ensemble Surveillance des journaux d'événements
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Réunion LCG-France, 7/4/2008 C.Charlot Acc è s aux donn é es Accès à dCache Problèmes de stageout des fichiers produits sur les WNs  Aussi pour le stagein.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
Mod è le de Calcul CMS C. Charlot / LLR CTDR:
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
L’environnement Labo : nom du labo (PP, PN, Astro éventuellement dans l’ordre d’importance) Effectif du labo : xxx personnes Nombre d’IT : xxx dont au.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
Le noeud de grille Tier 3 LAPP.
Service Challenge 4 – Tests de Débit Bilan pour le Tier-1 LCG-France Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Comité scientifique GRIF, 19/01/ LPNHE Paris Projet GRIF au LPNHE Paris Le 2 février prochain il y aura une revue de projet au LPNHE. Le projet GRIF.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
M.D. 11-mai-2004Journées CMS-France Le système de monitorage de CMS-ECAL  Programme : Motivations Solutions techniques retenues Installation sur.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Étude de systèmes de fichiers distribués Théorie et pratique Cyril Séguin Directeurs de thèse Gaël Le Mahec Alain Cournier Benjamin Depardon c.
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
Projets IN2P3 08/07/05E. Kajfasz1 -IN2P
Yannick Patois _ Journée du Libre _ 1er Novembre n° 1 Datagrid Une grille de calcul sous Linux Yannick Patois.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
GRIF Status Michel Jouvin LAL/Orsay
1 18 mars 2010 Exercices PRA Mainframe Lionel PHELPIN.
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
Retour d'expérience de l'utilisation du cloud comme infrastructure de service Guillaume PHILIPPON.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Système local d’accounting de l’IPHC 31/05/2011 Eric Kieffer.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
11/9/07-PAFL.Poggioli/LAL1/25 Gestion des données : DDM Distributed Data Management Préambule Le modèle ATLAS DDM –Principe, Tests, Suivi, Problèmes Next.
ATLAS et l’analyse au CCIN2P3  Le modèle de calcul de ATLAS  L’analyse à Lyon  Points critiques Avertissement : cette présentation n’est malheureusement.
LCG-France Edith Knoops CPPM. Le LHC LEP LHC > 95% UNKNOWN STUFF OUT THERE > 95% UNKNOWN STUFF OUT THERE Black hole 3.
25/06/20101LCG - France CPPM Marseille L’expérience CMS à GRIF LLR – E.Poly.,Palaiseau: Pascale Hennion Paulo Mora de Freitas Igor Semeniouk Philippe Busson.
Grid au LAL Michel Jouvin LAL / IN2P3
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
Stratégie technique G. Mathieu – V. Breton. Stratégie vers les fournisseurs de services et de ressources France Grilles2 Jouer le rôle central dans le.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
C. Charlot, Calcul CMS, LCG-DIR, fév 2007 Calcul CMS 2006 TDR de Physique CMS Physics TDR, Volume 1, CERN-LHCC , feb. 2006, 548pp CMS Physics TDR,
Vue d'ensemble de l'utilisation du CCIN2P3 par les expériences LHC
Les centres d’analyse: introduction
Transcription de la présentation:

Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot

2 Vue d’ensemble C. Charlot, Conseil scientifique LLR 14/10/2010 Modèle distribué utilisation de toutes les ressources disponibles hiérarchie de sites et d’activités grille comme technologie sous-jacente actuellement 7 Tier1s, 51 Tier2s Flux de données considérable taux de déclenchement: 300 Hz taille événement brut: 1.5MB* 0(5PB) / an de données brutes* Organisation des données en vue de la physique « data streams » constitués à partir des bits de déclenchement HLT distribution et reprocessing par data stream prioritisation par la physique * nominal Software flexible et efficace nombreux reprocessings 1-10 sec/event Evolution rapide 43 (pre)releases CMSSW depuis 30/03/2010 ~10 reprocessings complets ou partiels

3 Ce qu’il se passe au Tier 0 C. Charlot, Conseil scientifique LLR 14/10/2010 Repacker formate les données au format root séparation en datasets suivant les bits du HLT Express reconstruction ~10% des données latence ~1-2h Prompt reconstruction latence ~48h très stable, peu de crash Taille des événements RAW: 0.225MB RECO: 0.4MB Nombre d’événements Commissioning10: 1.34E9 run 2010A: sept.: oct.: * * prévision

4 Ce qu’il se passe au Tier 0 C. Charlot, Conseil scientifique LLR 14/10/2010 Latences au T0 (06/2010) repacking des RAW en moyenne 3h après la fin du run données RECO produites en moyenne 5h après la fin du run

5 Transferts T0-T1 C. Charlot, Conseil scientifique LLR 14/10/2010 Les transferts fonctionnent de façon fiable 1 GB/s export depuis le CERN proche de la valeur pic prévue dans le modèle

6 Ce qu’il se passe aux T1s C. Charlot, Conseil scientifique LLR 14/10/2010 Usage modéré jusqu’à présent faible live time du LHC jusqu’à maintenant 2 rereconstructions complètes prévues en préparation des conférences d’hiver début nov. et dec.- janv

7 Stockage des données C. Charlot, Conseil scientifique LLR 14/10/2010 Volume total données custodiales (collisions et MC) sur bandes: 3.045PB

8 Ce qu’il se passe aux T2s C. Charlot, Conseil scientifique LLR 14/10/2010 Premiers blocks de données accessibles aux T2s dans les heures qui suivent la distribution initiale nombreuses connections T1-T2 et T2-T2 (full mesh model) Les T2s sont le lieu pour la production MC et l’analyse ~360 utilisateurs CMS / semaine ~100k jobs utilisateurs / jour

9 Associations T2-Groupes de Physique C. Charlot, Conseil scientifique LLR 14/10/2010 (09/2010) T2_US_MIT prévu

10 Planning C. Charlot, Conseil scientifique LLR 14/10/2010

11 Les ions lourds C. Charlot, Conseil scientifique LLR 14/10/2010 Démarrage du run ions lourds début novembre prochain ~1 mois jusqu’au shutdown d’hiver Run plus court mais plus grand nombre de paquets dans la machine et plus grand taux de déclenchement qu’initialement prévus Déclenchement « minimum bias » Les données seront écrites sans suppression de zéro suppression de zéro sera appliquée dans un reprocessing des données en janvier temps nécessaire pour étudier la réduction de données optimale les données brutes seront gardées sur disque au CERN jusqu’au reprocessing de janvier et archivées sur bandes au CERN, ~1.4PB Les données zéro supprimées seront archivées au CERN et transférées à FNAL pour une deuxième copie facteur 4 de compression, ~350TB reprocessings ultérieurs au T2 de Vanderbilt

12 Les ions lourds (suite) C. Charlot, Conseil scientifique LLR 14/10/2010 Taille événement IL: 12MB en mode sans suppression de zéro taux de déclenchement: 150Hz donc débit vers le stockage de 1.8GB/s, plus élevé que pp Mais pas nécessaire de tenir le débit en temps réel run court, pas d’autres activités au CERN T0 pendant cette période Tests de transferts et d’écritures de données non zéro-suppressed ont été effectués 195Hz depuis P5, 1.5 GB/s atteint entre P5 et IT données écrites deux fois sur bandes: 1GB/s en écriture

13 T2 nominal 2011 C. Charlot, Conseil scientifique LLR 14/10/2010 Approved CRB 27/09 3 POG/PAG: 505TB 4 POG/PAG: 575TB Stageout 20TB pour MC et 20TB pour analyse Group = 75TB par groupe de physique x1.5 par rapport à 2009 T2 nominal est associé à 2 groupes Espace central = 100TB x2 par rapport à 2009 T2 nominal est associé à 2 groupes Espace local = 75TB x1.5 par rapport à 2009 Espace user = 1.5TB/user 40 users = 60TB x1.5 par rapport à 2009 T2 nominal = 425TB Support pour 4 groupes de physiques = 575TB 1.5TB 75TB 75TB x N groupes 100TB 40TB

14 C. Charlot, Conseil scientifique LLR 14/10/2010 GRIF vue d’ensemble Grille de recherche d’Ile de France fédération de sites interconnectés a 10Gbps initiative de 5 laboratoires (IPN, IRFU, LAL, LLR, LPNHE) rejoint par la suite par l’APC support mutualisé Support multi VO LHC mais aussi Biomed, Calice, D0, etc.. 2 sites fournissent du stockage pour CMS LLR et IRFU le LAL et le LPNHE fournissent également du calcul Au LLR actuellement 95 serveurs de calcul, ~1000 slots installés depuis 2008 à l’aile 0 A. Sartirana + P. Henion + I. Semenjuk + P. Mora de Freitas + J. Tugler + B. Tafliki

15 GRIF: disponibilité C. Charlot, Conseil scientifique LLR 14/10/2010 La disponibilité est une métrique importante de qualité des sites monitorée en continue par CMS sur tous les sites de la grille test grille et spécifiques CMS Excellente disponibilité du site en général moins bonne pour GRIF-IRFU le mois dernier disponibilité réduite suite à l’arrêt lié à la faille de sécurité Linux

16 C. Charlot, Conseil scientifique LLR 14/10/2010 Utilisation du GRIF: CPU

17 C. Charlot, Conseil scientifique LLR 14/10/2010 Utilisation du GRIF: transferts Un exemple de transfert pour les analyses du groupe Activités dans les voies électrons demandé par e/g POG Dataset /EG/Run2010A-Sep17ReReco_v2/RECO totalité des données /EG du run 2010A, ~ 3/pb de lumi intégrée, dernier reprocessing 17.3TB en ~36h ~100MB/s pointes à MB/s Dataset disponible pour analyse à la maison ~ 3 jours après sa production par la rereco centrale produit en fin de prepod

18 C. Charlot, Conseil scientifique LLR 14/10/2010 Utilisation du GRIF: disque Espace disque utilisateur utilisateur T2: ~1.5TB / utilisateur utilisateur du groupe (T3): ~100 TB au total / ~10 utilisateurs Espace disque placement datasets locaux ~135TB Espace disque support aux groupes ~90TB

19 C. Charlot, Conseil scientifique LLR 14/10/2010 GRIF: utilisation GRIF a joué un rôle essentiel dans l’activité du groupe depuis le début de la prise de données jusqu’à maintenant, en passant par les analyses pour ICHEP transfert de données « à la maison » skiming, processig particuliers pour les besoins du groupe publication des données production de root trees analyse intéractive et production des résultats de physique

20 C. Charlot, Conseil scientifique LLR 14/10/2010 GRIF: besoins Inputs: évolution des besoins T2s CMS nécessité de fournir un support à 4 groupes de physique Higgs, Exotica, e/g et, à partir de nov. 2010, Ions Lourds CPU renouvellement et support calcul pour les ions lourds: 20 serveurs de calcul, 2400 HS06 Disque serveurs fichiers support pour les ions lourds: 120TB Réseau switch réseau Total des besoins estimé ~140keuro en partie financé par l'ERC Ions Lourds (Raphael) complément espéré du LLR et de CMS-IN2P3

21 En résumé C. Charlot, Conseil scientifique LLR 14/10/2010 Le calcul dans CMS se passe plutôt bien modèle distribué en application ~6 mois d’expérience de prise de données de collisions néanmoins temps de collisions pour la physique encore faible, les derniers mois de 2010 nous donneront une idée plus réaliste de ce que sera 2011 Le GRIF est un atout majeur du groupe en vue des analyses soutient à 4 groupes de physiques en adéquation avec les intérêts du groupe CMS-LLR gros impact sur les analyses L’arrivée des ions lourds nécessite un accroissement des ressources en particulier pour le stockage Le groupe CMS demande le soutient du laboratoire en vue de permettre l’accroissement nécessaire des ressources