Mod è le de Calcul CMS C. Charlot / LLR CTDR: https://cmsdoc.cern.ch/cms/cpt/tdr/cms-ctdr-bw.pdfhttps://cmsdoc.cern.ch/cms/cpt/tdr/cms-ctdr-bw.pdf.

Slides:



Advertisements
Présentations similaires
Activités MS dans ATLAS. Projet principal cette année : CSC Exercice « complet » de la chaîne software et danalyse: –Generation, simulation, reconstruction,
Advertisements

Commissioning du calorimètre central à argon liquide d’ATLAS:
DataGRID PTB, Geneva, 10 April 2002 ATLAS Data Challenges Fede Eric.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
Etude d'un canal de désintégration SUSY à CMS: Résultats intermédiaires Alexandre Mollet.
3 avril 2007IFAP - Débat thématique "Conservation numérique"1 Conservation des publications électroniques et du dépôt légal Catherine Lupovici Département.
L’expérience ATLAS au LHC
R. Torres Etude du top dans l'experience ATLAS 1.
Recherche de la production électrofaible du quark top à DØ Emmanuel Busato, LPNHE Paris Journées Jeunes Chercheurs 2003  Reconstruction des jets dans.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Cynthia HadjidakisQGP FRANCE Le calorimètre électromagnétique d’ALICE : EMCAL Motivations physiques Le calorimètre EMCAL Physique des jets et des photons.
Production électrofaible du quark top dans DØ
9-mai-2006 Eric Lancon 1 Tier-1 et Ferme d’Analyse à Lyon Tier-1 de Lyon  Processing et stockage des données réelles  Stockage des données de simulations.
Réunion LCG-France, 7/4/2008 C.Charlot Acc è s aux donn é es Accès à dCache Problèmes de stageout des fichiers produits sur les WNs  Aussi pour le stagein.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
P2pWeb Une boite à outils pour construire un réseau coopératif d’hébergement de site Web –Réseau coopératif réseau physique de nœuds sur l ’Internet réseau.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
CS IN2P3 – Lundi 8 décembre 2003Bruno Espagnon – IPN Orsay Le Bras Dimuon d'ALICE Résolution de 70 MeV pour le J/  et 100 MeV pour le  (soit 1%) Etude.
Activité Photons/Higgs But : Une activite complete sur les photons : Calibration, Identification Mesures de photons directs/Recherche de bosons de Higgs.
Mise en place de la chaine de simulation complète et Efficacités A.Zghiche Réunion de groupe OPERA 12 mars :30 A.Zghiche Réunion de groupe OPERA.
Service Challenge 4 – Tests de Débit Bilan pour le Tier-1 LCG-France Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Stephanie Beauceron These soutenue le 28 Mai 2004 realisee sous la direction de Gregorio Bernardi au sein du groupe DØ du LPNHE sur le sujet.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Localisation et identification des interactions neutrinos dans le détecteur OPERA. Carole HERITIER Journées Jeunes Chercheurs 2003 Directeurs de thèse.
La recherche de vertex dans CMS : le recuit déterministe Nicolas Estre – IPN Lyon – Journées Jeunes Chercheurs 2003.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
1 Activités top au CPPM Permanents: F. Hubaut, E. Monnier, P. Pralavorio Thésard: B. Resende Visiteur: C. Zhu  : polarisation du W et du top.
Stéphanie Beauceron Thèse sera soutenue le 28 Mai 2004 sous la direction de Gregorio Bernardi dans DØ - LPNHE : Recherche du boson de Higgs dans.
Efficacité des chambres de trajectographies du bras à muons Nicolas LE BRIS SUBATECH NANTES.
Architecture et technologie des ordinateurs II
JJC 2002 Stéphanie Beauceron LPNHE- Paris 1 L’expérience DØ I. Fermilab et le Tevatron II. Le détecteur 1- Les principaux sous détecteurs 2- La calibration.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
1 Travaux pratiques des MasterClasses : « Analyse des événements du détecteur DELPHI au LEP» Sylvie Dagoret-Campagne
Smain Kermiche 23/07/2001 Journées Informatique IN2P3 DAPNIA 1 L’informatique à D0 D0 à FNAL Données du Run II Infrastructure matérielle Stockage/Accès.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
Projets IN2P3 08/07/05E. Kajfasz1 -IN2P
Mesure des rapports de branchement du Z 0 C. Vander Velde IIHE (ULB-VUB) 2009.
Yannick Patois _ Journée du Libre _ 1er Novembre n° 1 Datagrid Une grille de calcul sous Linux Yannick Patois.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
C. Vallee - 05/04/06Activites et Perspectives de H11 ACTIVITES ET PERSPECTIVES DU GROUPE H1 Journées Prospective du CPPM 5 Avril physiciens : C.
DE LA COLLISION A LA PUBLICATION. CE QUI S'EST PASSE.
PetaSky: Expérimentations avec HadoopDB et Hive 1 Amin Mesmoudi.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Autour du H  ZZ*  4l Groupes français impliqués: Saclay +Orsay Sujets d’analyse en charge: 1)Performances Muon et electrons 2) Optimisation des coupures.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
Préparation des études sur les premières données de l’expérience Atlas : reconstruction des leptons du boson Z° Anne Cournol Stage de Master 1, sciences.
1Prod Monte Carlo sur le nuage français La production Monte-Carlo sur le nuage français J.Schwindling CEA / DAPNIA Organisation de la production Monte-Carlo.
11/9/07-PAFL.Poggioli/LAL1/25 Gestion des données : DDM Distributed Data Management Préambule Le modèle ATLAS DDM –Principe, Tests, Suivi, Problèmes Next.
ATLAS et l’analyse au CCIN2P3  Le modèle de calcul de ATLAS  L’analyse à Lyon  Points critiques Avertissement : cette présentation n’est malheureusement.
LCG-France Edith Knoops CPPM. Le LHC LEP LHC > 95% UNKNOWN STUFF OUT THERE > 95% UNKNOWN STUFF OUT THERE Black hole 3.
25/06/20101LCG - France CPPM Marseille L’expérience CMS à GRIF LLR – E.Poly.,Palaiseau: Pascale Hennion Paulo Mora de Freitas Igor Semeniouk Philippe Busson.
Grid au LAL Michel Jouvin LAL / IN2P3
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
6-7 Octobre 2008J-P MEYER1 Conclusions du groupe de travail thématique 7 Physique subatomique: - physique des particules, - physique nucléaire, - astroparticules.
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Activité Photons/Higgs But : Une activite complete sur les photons : Calibration, Identification Mesures de photons directs/Recherche de bosons de Higgs.
Tier2: Subatech Tier2: LPC Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO AF: CC-IN2P3 Tier3: LAPP Tier1: CC- IN2P3.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
C. Charlot, Calcul CMS, LCG-DIR, fév 2007 Calcul CMS 2006 TDR de Physique CMS Physics TDR, Volume 1, CERN-LHCC , feb. 2006, 548pp CMS Physics TDR,
Vue d'ensemble de l'utilisation du CCIN2P3 par les expériences LHC
Les centres d’analyse: introduction
DC04 CMS Objectif Status Planning
Transcription de la présentation:

Mod è le de Calcul CMS C. Charlot / LLR CTDR:

C. Charlot, Colloque LCG-France, déc Les donn é es du probl è me Taille des RAW data estimée à 1.5MB pour le run de physique à 2x10 33 ~300kB d’après MC actuel Facteurs multiplicatifs d’après Tevatron  Sous-estimation MC/vraies données: x1.6  HLT commissioning: x1.25  Démarrage, seuils, zéro suppression: x2.5 Taille réelle plus proche de 1.5MB Diminuera avec la connaissance du détecteur  Mais augmentera avec accroissement de la luminosité Taux de déclenchement estimé à 150Hz pour le run de physique à 2x10 33 Taux minimal pour la physique et la calibration: ~100Hz Physique « Standard Model »: + 50 Hz

C. Charlot, Colloque LCG-France, déc Principes de base Code de reconstruction rapide Re-processing fréquents Traitement des données suivant les priorités décidées par l’expérience Calibration aussi bien que données « Higgs » Streamed primary datasets distribution et processing « priority driven » Distribution jointe des RAW+REC Accès aisé à l’information « brute » Formats de données compacts Copies multiples à de multiples sites

C. Charlot, Colloque LCG-France, déc Les lots de donn é es primaires Rôle prédominant de la sélection trigger dans l’analyse des données en physique pp Part prédominante du filtrage dans l’analyse Rappel: collisions 40MHz(collisions)  150Hz(offline)  Hz(100 évts Higgs dans un plot pour 1 an de stat.) CMS prévoit de s’appuyer fortement sur la définition de lots de données primaires par le système de déclenchement o(50) « primary datasets » (single électrons, diélectons, diphotons,..) Permet une affectation aisée de priorités pour l’analyse et le traitement des données Distribution des données suivant les « primary datasets » Conséquences importantes sur la physique supportée au site i

C. Charlot, Colloque LCG-France, déc Les tiers de donn é es Données brutes (« RAW »): 1.5MB/evt* Produites par la DAQ du détecteur 150Hz x 1.5MB x 10 7 sec/an: 2.25PB/an 1 copie au T0 et une répartie sur les T1s Données reconstruites (« REC »): 250kB/evt* Produites par le programme de reconstruction Objets reco de bas niveau  Hits reconstruits, clusters calorimétriques, traces, vertex reconstruits,.. Links vers l’information (« RAW ») 1 copie au T0 et une répartie sur les T1s, distribuée avec les RAW => FEVT, utilisée lors des premières analyses Données d’analyse (« AOD »): 50kB/evt* Produites par le programme de reconstruction Objets reco de haut niveau: Electrons, Muons, Taus,..  Track refit possible mais pas pattern recognition répliquées partout, ultimement utilisées dans la plupart des analyses * : pour

C. Charlot, Colloque LCG-France, déc Data Flow

C. Charlot, Colloque LCG-France, déc Data Flow

C. Charlot, Colloque LCG-France, déc Op é rations au Tier0 Les streams du ONLINE arrivent dans un buffer de ~20 jours Séparés en ~50 « primary datasets » comprimés en tailles de fichiers raisonables bâtis suivant les trigger paths Le RAW « primary dataset » est  Archivé sur bande –Place sur le buffer libérée  Envoyé aux machines batch pour la reconstruction au Tier0 Les données RECO produites sont comprimées avec les données RAW correspondantes pour former le format distribuable FEVT RECO archivée sur bande au Tier0 FEVT distribuée aux Tier1s (souscription + push)  Chaque Tier1 reçoit 1/Ntier1 des FEVT soit ~5-10 « primary datasets » –Les « primary dataset » chauds peuvent être distribués à plus que 1 Tier1 Une copie complète des AOD est envoyée à chaque Tier1

C. Charlot, Colloque LCG-France, déc Les centres Tier1 États actuels des centres ayant déclaré des ressources pour CMS: ASGC (Taiwan) CCIN2P3 (France) CERN CAF FNAL (USA) GridKA (Allemagne) INFN-CNAF (Italie) PIC (Espagne) RAL (UK) Plus déclarations d’intention additionelles de: Chine (IHEP), Corée (CHEP), États nordiques Définition finale et contributions sujettent au MOU LCG entre le CERN et les agences fournissant des moyens de calcul Tier1 ou Tier2

C. Charlot, Colloque LCG-France, déc Op é rations aux Tier1s Reçoivent et prennent la responsabilité des données FEVT et AOD Dataset courant sur disque Le reste des données principalement sur bande avec cache disque frontal Reçoivent les données simulées reconstruites des Tier2s Les archivent Distribuent les AOD de SIMU à tous les autres Tier1s Servent les données courantes à tous les groupes d’analyses faisant des sélections Possibilités d’analyses locales La plupart des produits d’analyse envoyés aux Tier2 pour analyse Effectuent le reprocessing officiel des données RAW/RECO et SIMU Données SIMU importés depuis Tier2s

C. Charlot, Colloque LCG-France, déc Les centres Tier2s Les ressources Tier2 font parties du MOU et comptabilisées comme ressources de CMS Chaque Tier2 est associé à un Tier1 particulier, qui lui fournit des services de stockage et d’accès aux données don’t il a besoin Les Tier1 participent également au support des Tier2s La totalité du MC est faite aux Tier2s Rapport MC / data réelles: 1 / 1 Trois types d’utilisation des ressources Tier2 sont envisagés: « local community use » : une fraction des ressource est complètement controlées par les « propriétaires » « CMS controlled use » : une fraction est dédiée à des activitées de processing générales de CMS, i.e. MC et processing d’analyse recquis par les groupes de physiques « Opportunistic use » : chaque physicien de CMS peut utiliser ces ressources via la grille

C. Charlot, Colloque LCG-France, déc Op é rations aux Tier2s Simulation et reconstruction de la simulation Soumission probablement de façon centralisée via la grille Support aux groupes d’analyses utilisateurs, 1-3 groups Groupés par intérêts locaux et de physique Important les dataset depuis les Tier1 CPU disponible pour analyse Études d’amélioration de la reconstruction

C. Charlot, Colloque LCG-France, déc Les centres Tier3 Structures de calcul servant les besoins des instituts Peuvent fournir des ressources à CMS sur une base « opportunistic » Ne font pas partie du MOU Pas partie intégrante du processing centralisé de CMS pas de support fournit par le computing de CMS Néanmoins une partie importante des ressources pour l’analyse

C. Charlot, Colloque LCG-France, déc Estimation des besoins

C. Charlot, Colloque LCG-France, déc Mise en oeuvre du mod è le SC3 « service phase » utilisée comme test d’integration ~0.29PB transférés via PhEDEx (tout SC3) SC3 Phase 2 (2 semaines): 140TB, ~autant que 2004! Débit moyens ~20MB/s end-to- end

C. Charlot, Colloque LCG-France, déc Mise en oeuvre du mod è le CRAB jobs depuis juillet 2005 (P-TDR analyses jobs) O(100k) jobs 32k en 2 semaines sur 38M evts Taux d’échec encore très important Instabilités RLS, non disponibilités des sites, accès aux données

C. Charlot, Colloque LCG-France, déc Conclusions Modèle complexe dû à la volumétrie des données à traiter Impossibilité matérielle de traiter/servir l’ensemble des données en un seul site On s’attend à être submergé par les données Aux Tier1s, aux Tier2s, aux Tier3s,.. Nécessité de gérer des priorités, logique de filtrage Néanmoins, un modèle de calcul qui sera déjà beaucoup testé.. ~4ans de pratique de transfert massifs de datasets, assemblage de collections, placement de données pour analyses remote par les end-users via la grille.. mais à coup sûr pas assez!