25/06/20101LCG - France CPPM Marseille L’expérience CMS à GRIF LLR – E.Poly.,Palaiseau: Pascale Hennion Paulo Mora de Freitas Igor Semeniouk Philippe Busson.

Slides:



Advertisements
Présentations similaires
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
Advertisements

Réunion LCG-France, 7/4/2008 C.Charlot Acc è s aux donn é es Accès à dCache Problèmes de stageout des fichiers produits sur les WNs  Aussi pour le stagein.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
Mod è le de Calcul CMS C. Charlot / LLR CTDR:
FORUM REGIONAL DE NORMALISATION DE L'UIT POUR L'AFRIQUE (Dakar, Sénégal, mars 2015) Outils et méthodes pour tester la qualité de services (QoS) de.
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Michel Jouvin LAL/Orsay
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
Présentation de EAS Un logiciel distribuéé exclusivement par Brain2tech SARL.
Rémi BRISSIAUD MC de Psychologie — Université de Cergy-Pontoise — IUFM de Versailles Équipe “ Compréhension, Raisonnement et Acquisition de Connaissances.
RÉNOVATION BTS Comptabilité et Gestion 2015 Atelier situations professionnelles & PGI Cas Jupiter Média Chantal Bricard Jean-Marie Duplan.
Espace collaboratif du CODEV Blog, WIKI, Forum: c’est quoi?  Blog - Publication périodique et régulière d’articles La vocation d’un Blog est d'être un.
JI Les systèmes d’autorisation et d’authentification dans AMI Fabian Lambert.
Expérience du déploiement d’une Virtual Organisation (VO) locale Christophe DIARRA
Question de gestion 13 : Le document peut-il être vecteur de coopération ? Le document : - Dématérialisation des documents - Partage, mutualisation, sécurisation.
Informatique Prospective. La qualité: HelpDesk au LAPP ou Pour un meilleur suivi des demandes au(x) support(s) Sylvain Garrigues.
DE LA COLLISION A LA PUBLICATION. CE QUI S'EST PASSE.
Sortir de MAUI – quelles options ? HTCondor dans un CREAM-CE Guillaume Philippon.
Développement d’application avec base de données Semaine 3 : Modifications avec Entité Framework Automne 2015.
ASR5 Système pour architectures multicœurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques Répartis Gaël Thomas
MON CV Ecole des Mines de Nantes Ingénieur généraliste en 2005 Stage de 3 mois dans un laboratoire aux USA Stage de fin d’étude dans un laboratoire du.
Tutoriel n°4 : Administration Technique Formation : profil Administrateur.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Session “Site Administrator” Pierre Girard.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Migration Plan adressage EPLE Migration Plan d'adressage EPLE.
RÉNOVATION BTS Comptabilité et Gestion 2015 CB2C : un exemple de situation professionnelle Christine Forest Stéphane Bessière Daniel Perrin Toinin.
Migration du système de sauvegarde d’une infrastructure locale à un système centralisé IN2P3 101/06/2016 HEPIX Spring 2013 Muriel Gougerot (LAPP) and Remi.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
1 Journées Scientifiques novembre 2003 MoMaS EDF Electricité de France Multi Domaines Simulation Multi Domaines Laurent Loth - Andra.
Présentation des résultats du stage de DEUG 1 Analyse des données électrons/pions du test en faisceau combiné 2004 de l'expérience Atlas Eva Dahan Stage.
Utilisation de Quattor par GRIF Michel Jouvin LAL/Orsay
LPSC, journée de lancement TIDRA B. Boutherin 1/12 Tier 3 du LPSC Grenoble Une infrastructure solide, originale et éco-responsable Des ressources importantes.
Mercredi 1er juin 2016 Panorama sur les outils de monitoring Cyril L’Orphelin David Bouvet.
Préparation des études sur les premières données de l’expérience Atlas : reconstruction des leptons du boson Z° Anne Cournol Stage de Master 1, sciences.
Jobs multicore dans WLCG Présentation en partie basée sur des présentations faites dans le cadre du groupe de travail multicore.
11/9/07-PAFL.Poggioli/LAL1/25 Gestion des données : DDM Distributed Data Management Préambule Le modèle ATLAS DDM –Principe, Tests, Suivi, Problèmes Next.
Pr é sentation du stage effectu é au LPNHE du 28 Mai au 29 Juin 2007 Participation à l'étude du quark top dans l'expérience ATLAS située sur le collisionneur.
LCG-France Edith Knoops CPPM. Le LHC LEP LHC > 95% UNKNOWN STUFF OUT THERE > 95% UNKNOWN STUFF OUT THERE Black hole 3.
Eric Fede - 1 GESTION DES PRIORITES SUR LA GRILLE.
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
CEA Dapnia Saclay 24 Janvier Hervé COPPIER ESIEE-Amiens De L’Identification et de la Modélisation au Contrôle : le Multicontrôleur,
Réunion Vendredi du 29/05/ Réunion Vendredi du LPNHE du 29/05/2009 Les locaux du LPNHE dans le secteur Ouest du Campus Jussieu Le planning d’emménagement.
INFSO-RI Enabling Grids for E-sciencE Sécurité sur la Grille C. Loomis (LAL-Orsay) Tutorial EGEE Utilisateur (LAL) 8 octobre 2007.
Déploiement de la solution de supervision FAN au sein de société CBI et de ses filiales au Maroc et en Afrique.
Recherche des bosons médiateurs de l’interaction faible dans les données du détecteur CMS.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Mercredi 22 juin 2016 Suivi des jobs grille Colloque LCG France Mars 2007.
Mise en place d’un cloud publique et privé Guillaume PHILIPPON.
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
VISHNOO – Téléactions SPOT Romain RAYMOND - SDNO 06/10/2011.
1 Initiation aux bases de données et à la programmation événementielle Construction d’un état Support de TD rédigé par Bernard COFFIN Université Paris.
Tier2: Subatech Tier2: LPC Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO AF: CC-IN2P3 Tier3: LAPP Tier1: CC- IN2P3.
Colloque LCG France14-15 mars SURVEILLANCE ET GESTION D’INCIDENTS Cécile Barbier (LAPP)
1DSM - IRFU / PM Compte rendu du site GRIF.
08/02/2007 Site Grille : Ambitions 2007 Pierre Girard LCG-France Tier
ATLAS Analysis Challenge Résultats du Stress Test Frédérique Chollet Information disponible sur le wiki LCG-France
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Projet de participation CMS au GRIF
Jobs ATLAS sur la grille
Les centres d’analyse: introduction
DC04 CMS Objectif Status Planning
Efficacité des jobs CMS en 2010
LCG – France et ALICE Bilan 2006 Planning fevrier 2007
Transcription de la présentation:

25/06/20101LCG - France CPPM Marseille L’expérience CMS à GRIF LLR – E.Poly.,Palaiseau: Pascale Hennion Paulo Mora de Freitas Igor Semeniouk Philippe Busson Andrea Sartirana Claude Charlot IRFU – CEA, Saclay: Christine Leroy Frederic Schaer Pierrick Micout Zoulikha Georgette LPNHE –CNRS,UPMC et Paris7, Paris: Victor Mendoza Liliana Martin LAL – U.Paris-Sud, Orsay: Michel Jouvin Guillaume Philippon

Le modèle de calcul de CMS Basé sur la grille Structure en Tiers CMS fournit la couche d’applications – Phedex – DBS – Crab, ProdAgent – Frontier Cms fait son propre support – 1 contact/site – Savannah 25/06/2010LCG - France CPPM Marseille2

25/06/20103LCG - France CPPM Marseille Les données brutes sont stockées et reconstruites dans le T0 La base de donnees centrale du CERN donne l’information sur où sont stockees ces donnees Tier 1 CCIN2P3 Tier 2 T2_GRIF FRXY T3LLR-T3T3 Tier 0 GRIF (PhEDEx) Data Access Site Le reprocessing et le filtrage sont faits dans les T1s Selon les demandes des physiciens; La distribution des données est géréé par PhEDEx. RAW/RECO des T0 vers les T1s; Données AODs (format d’analyse) dans les T1s; Données pour l’analysis aux T2s; MonteCarlo sont remontés des T2 vers les T1; L’analyse et les MC sont faits dans les T2s (et les T3’s) Pout les groupes officiels et pour les analyses locales Les résultats sont remontés dans les T1 pour archivage

25/06/20104LCG - France CPPM Marseille T2 moyen Pour les analyses globales il faut 50T + ~30-50TB pour chaque groupe (ici on a supposé 1 groupe d’analyse) Pour les analyses locales ajouter ~1TB for chaque utilisateur. 0.9 MSI2k, 200TB disk, 1Gb/s WAN;

25/06/20105LCG - France CPPM Marseille T2_FR_GRIF_LLR CE ~1800 slots CE ~850 slots SE ~250TB LLR T3 CE ~250 slots CE ~1700 slots SE ~200TB T2_FR_GRIF_IRFU IRFU T3 Les nombres sont les nombres totaux de slots. CMS utilise ~25% de GRIF Notes: CMS à GRIF

25/06/20106LCG - France CPPM Marseille CMS à GRIF 4 des sous-sites de GRIF supportent CMS. Groupés en 2 T2 CMS Sur la SiteDB: 2 x 320 pledged slots (800 kSI2K). 2x180TB disk; 4 groupes d’analyse supportés: Higgs, E-gamma, Exotiques, Ions lourds T2_FR_GRIF_IRFU: Exotiques + AnaOps managed storage; T2_FR_GRIF_LLR : Higgs + E-gamma + Ions lourds ; Adapte la topologie multisites de GRIF au modele de CMS “data driven” (les calculs se font où sont les données) 2 sites T2 avec un SE pour chaque site; 2 sites dans la SiteDB. 2 serveurs squid/frontier.Un pour chaque site. Possibilité de faire du failover inter-site. Service tres stable, à peine besoin de management; Un noeud PhEDEx pour chaque site (SE). Partage des configurations et gestion d’une façon complétement coopérative.

Un exemple d’analyse à GRIF: Commissioning des électrons avec les premières données Mise en œuvre de la reconstruction/identification des objets électrons (vérification avec les données des algorithmes utilisés et leur ajustement quand nécessaire) – Travail effectué au sein des groupes POG (Physics Object Group) électrons/gammas et PAG (Physics Analysis Group) électrofaible – Objectif de publication en vue de ICHEP fin juillet – Deadlines stricts imposés par le système de revue interne de l’expérience pour des résultats publics Groupe de 8-10 physiciens impliqués dans l’analyse – Plusieurs sous-analyses – 4 doctorants, 1 postdoc – LLR + Split + Milan 25/06/2010LCG - France CPPM Marseille7

Contexte Analyse en parallèle avec d’autres analyses CMS ou autres au T2 GRIF Software en évolution extrêmement rapide – Reprocessing des données chaque ~10-15 jours – 5ème version CMSSW depuis le début (30/03) Nombreux échantillons de data et MC – Reprocessés avec les nouvelles versions de CMSSW – Différents MC “tunes” (saveurs) pour s’adapter aux données telles que mesurées par l’expérience (par exemple les événements minimum bias ne sont décrits dans les MC que par des modeles très empiriques) 25/06/2010LCG - France CPPM Marseille8

Mode opératoire Données input RAW-RECO (reconstruites mais pas triées) – Issues d’un skim (sélection) produit centralement par CMS – Sélection Min Bias ( TOUT) ou triggers ECAL (déclenchement dans le détecteur électromagnétique) Premier skim (sélection) appliqué par le groupe via CRAB – Stageout (placement des résultats) au GRIF – S’avère plus efficace de transférer, puis de skimer puis d’effacer les données input (de départ ) 25/06/2010LCG - France CPPM Marseille9

Mode opératoire (suite) Second skim appliqué par le groupe via CRAB – Évènements avec >=1 électrons sont conservés – Skim utilisé par la plupart des analyses Production de root tree ( arbre de données en format root) standardisé à partir du skim – Également via CRAB – Sélecteur standards utilisés – Analyse et production des plots (histogrammes) via macros root compilées – Ensemble du code mis à disposition dans l’espace CVS du sous- groupe “Prompt feedback” (analyse en léger différé) du groupe électrons/gamma 25/06/2010LCG - France CPPM Marseille10

Paramètres (Pour d’évènements MinBias) Données input RAW-RECO (reconstruites mais pas triées) – /MinimumBias/Commissioning10-GOODCOLL-v9/RAW-RECO – 3677 files, 109 block(s), 21.1TB, located at 17 sites Premier skim appliqué par le groupe via CRAB – Pas de premier skim dans ce cas, input dataset transféré au GRIF Second skim appliqué par le groupe via CRAB – Processing au GRIF, ~8-10h par job (temps réel) – 314 files = 504GB publié au GRIF (donc disponible pour toute la collaboration) – temps CPU/ événement ~20msec, largement dominé par l’écriture, temps du skim <~1msec/événement 25/06/2010LCG - France CPPM Marseille11

Paramètres (suite) Production similaire pour le MC (les événements de simulation ) – Pas de skim initial par la production centrale => fait par le groupe Production d’un root tree standardisé à partir du skim – DATA: 53 fichiers mergés en un fichier de 5.2 Giga = ~1M d’évents sélectionnés!!! – MC: 8 fichiers mergés en un fichier de 1.3 Giga (moins de MC que de data!!) Relecture via macros root compilées – ~6min30 pour relecture DATA et MC en même temps Passe d’analyse complète en ~1 semaine – Du transfert initial jusqu’à la production/présentation des résultats à CMS 25/06/2010LCG - France CPPM Marseille12

Performances: avril-mai /06/2010LCG - France CPPM Marseille13 Succès: GRID:93.3% Site: 98.7% Application: 75.6% (principalement lié au stockage) Application 75.6%. Pourquoi?

Le réseau Au LLR – 10Gb -> sites de GRIF et CC – 5 Gb -> reste du monde A l’IRFU – 5Gb -> sites de GRIF et CC – 2*512Mb -> reste du monde 25/06/2010LCG - France CPPM Marseille14

Les Transferts Entrant Sortant 25/06/2010LCG - France CPPM Marseille15 LLR IRFU

Le stockage 3 thèmes de recherches au LLR (E-Gamma, ions lourds et higgs) 1 thèmes de recherche a l’IRFU (exotiques) Et de l’espace pour les utilisateurs et les opérations 25/06/2010LCG - France CPPM Marseille16

Espace disque : comparaison requis/fait 25/06/2010LCG - France CPPM Marseille17 L’espace utilisateur et l’espace local sont beaucoup plus grand que ce prévoit le modèle des données de CMS

Problèmes du stockage AU LLR: – Serveurs pleins à 99% (bug DPM ?) – Les partitions se démontent en cas d’écritures intenses sur les disques (script et tests en cours) – Impératif de surveiller le remplissage tous les jours – DPM ne crée pas de queues pour les processus rfio => 1000 requêtes rfio causent 1000 processes A l’IRFU – Parfois charge > 20 sur les vieux serveurs HP 25/06/2010LCG - France CPPM Marseille18

Les WN Au LLR – 60 bi-proc Xénon E5520, 48 Go mémoire – 14 slots/PC. 3 Go de mémoire/cœur – Avec 16 slots : PBS se casse À l’IRFU – 150 serveurs, 2Go de mémoire/coeur Nombres de jobs moyens par jours – 6000 au LLR – 3000 à l’IRFU 25/06/2010LCG - France CPPM Marseille19

Jobs réussis/ratés sur 1 mois 25/06/2010LCG - France CPPM Marseille20

Les jobs de Monte-Carlo 25/06/2010LCG - France CPPM Marseille21 ????? Les problèmes de stockage ont impacté le taux de réussite des jobs

Le T3 Petit cluster, tous les nœuds sont configurés comme des UI. Cms Event Display Accès prioritaire à la grille Cms Center 25/06/2010LCG - France CPPM Marseille22

Résumé Malgré les difficultés (le réseau à l’IRFU, et le stockage au LLR) l’ équipe de CMS fait une passe d’analyse complète en ~1 semaine (21.1 T -> 5.2 Go). Ensuite il faut 6mn30 pour une éventuelle nouvelle analyse des données 25/06/2010LCG - France CPPM Marseille23