5 mai 2008J-P Meyer1 Eléments de réflexion pour une ressource d’analyse - Trois exemples de travaux d’analyses effectuées à l’IRFU dans ATLAS: 1) AOD –>

Slides:



Advertisements
Présentations similaires
Le micro-ordinateur.
Advertisements

Benchmarking de systèmes de fichiers ZFS (sur Fuse) vs EXT3
GEF 435 Principes des systèmes dexploitation Les systèmes dexploitation en général (Tanenbaum 1.1 et 1.3)
L’Etat Final Lepton(s) + 2 b
Benchmarking de systèmes de fichiers ZFS (sur Fuse) vs EXT3 Machine de Polytech : PC de bureau ram : 512Mo CPU : AMD Disque dur: SATA II 3Gb/s.
CLUSTERING Grappe d'ordinateurs.
Fête de la Science 2011 Le LHC et ses expériences des géants pour sonder le coeur de la matière Bienvenue au Laboratoire De Physique Subatomique et de.
Lyon/ENS DATA GRID-ATLAS ISN Grenoble 1 Portage dune application de physique sur la datagrid Application existante : –Génération/simulation/reconstruction/analyse.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
SEGUIN –HASSAINE-CHANET
Architecture d’un ordinateur
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
Apacer Photo Steno Pro III 150X 2Go Une carte vraiment intéressante: très rapide malgré son prix, le seul reproche est le bundle un peu faible (la carte.
Les écritures fractionnaires
1 CDF sur Tevatron au Fermilab, USA LExpérience CDF et La Physique des Collisionneurs à Hadron Uni. Genève participe à 2 expériences sur les collisionneurs.
Programmation concurrente
Gestion de Fichiers Tri Interne Efficace et Tri Externe.
Lyon, 24/04/2007 Ce que l'application a besoin de connaître: Paramètres physiques par scénario de 150 ans Nombre et numéro d'ordre des mois à effectuer.
Vue d'ensemble Surveillance des journaux d'événements
R. Torres Etude du top dans l'experience ATLAS 1.
Module 8 : Surveillance des performances de SQL Server
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
COMPOSANTES INTERNES DE L’UNITE CENTRALE.
Plan Définitions et exemples Composants de cluster
JJC 2003Benjamin Portheault Qu’apprend-on de la Structure du Proton avec les données de H1 ? Benjamin Portheault, LAL Orsay HERA et le détecteur H1 La.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
J-P MEYER Présentations invitées et Tables rondes ou Morceaux choisis et vue biaisée d’un physicien.
Structure de Base d’un ordinateur Matière : Informatique
Peut-on remonter le temps jusqu’au big bang ?. Peut-on remonter le temps jusqu’au big bang ? Particules et interactions (forces) fondamentales de la.
GF-11: Tri Interne Efficace et Tri Externe
CEA-DAPNIAPierrick Micout Réunion Tier 2 « Ile de France » 22 juin 2005.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Le noeud de grille Tier 3 LAPP.
Activité Photons/Higgs But : Une activite complete sur les photons : Calibration, Identification Mesures de photons directs/Recherche de bosons de Higgs.
Comité scientifique GRIF, 19/01/ LPNHE Paris Projet GRIF au LPNHE Paris Le 2 février prochain il y aura une revue de projet au LPNHE. Le projet GRIF.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
Michel Jouvin LAL/Orsay
Production des événements ttbar dans l’expérience D0 Stefania Bordoni (Master 1) et Chloé Gerin (Magister 1)
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
Deug 11 Systèmes d ’Information : cours 2a Michel de Rougemont Université Paris II Matériels et Logiciels.
ATLAS Ghita Rahal CC-IN2P3 Novembre 9, /6/2006Réunion CAF2 Activités Création et externalisation d’outils de monitoring de l’état du T1 (CPU,
1 Activités top au CPPM Permanents: F. Hubaut, E. Monnier, P. Pralavorio Thésard: B. Resende Visiteur: C. Zhu  : polarisation du W et du top.
Explication de l’ordinateur et ses composantes
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
Partie 2 : lecture d’un monde moderne
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
ARP Fonctionnement.
1 Reconstruction des événements Top enregistrés avec le détecteur ATLAS Apport des techniques multi-variables Diane CINCA Stage de Master 2 ème année.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Chapitre 12 Surveillance des ressources et des performances Module S41.
TV diffusion Le système de diffusion permet d’afficher sur plusieurs écrans des médias provenant de sources accessibles en réseau.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
1 Bertrand Martin D ø France Grenoble 24/06/2008 Mesure de la section efficace σ(pp → tt →e + e - ) en p17 e+e+ e-e-
Autour du H  ZZ*  4l Groupes français impliqués: Saclay +Orsay Sujets d’analyse en charge: 1)Performances Muon et electrons 2) Optimisation des coupures.
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
1Prod Monte Carlo sur le nuage français La production Monte-Carlo sur le nuage français J.Schwindling CEA / DAPNIA Organisation de la production Monte-Carlo.
LCG-France Edith Knoops CPPM. Le LHC LEP LHC > 95% UNKNOWN STUFF OUT THERE > 95% UNKNOWN STUFF OUT THERE Black hole 3.
1DSM - DAPNIA / MW0901 Lustre au DAPNIA. 2DSM - DAPNIA / MW0901 Machines utilisées –2 PC DELL de bureau optiplex GX280 : NODE08 : P4 à 3,2 Ghz – 2Mo de.
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
6-7 Octobre 2008J-P MEYER1 Conclusions du groupe de travail thématique 7 Physique subatomique: - physique des particules, - physique nucléaire, - astroparticules.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Efficacité de reconstruction des électrons de bas pt Fany Dudziak Réunion de physique ATLAS LAL le 13 décembre 2007.
Lustre au DAPNIA.
Statut du T2 Île de France
Résumé de la réunion PAF-CAF 12/04/2010
Transcription de la présentation:

5 mai 2008J-P Meyer1 Eléments de réflexion pour une ressource d’analyse - Trois exemples de travaux d’analyses effectuées à l’IRFU dans ATLAS: 1) AOD –> ROOTup en local 2) AOD -> ROOTup sur la grille 3) ROOTup  résultat de physique - Conclusions

5 mai 2008J-P Meyer2 Analyse perso d’un utilisateur travaillant sur la mesure précise de la masse du W au LHC. Input: 12,5 Go d’AOD recopiés sur le disque dur de la machine Ouput: Rootup simple comportant le candidat électron, Ptmiss, vertex,… Type de machine: GX280 2,8 GHz Temps de traitement: 1000s  débit de lecture: 100Mbit/s Facteurs limitant: - décompression à la volé des AOD (puissance du CPU) - conflits entre lecture des AOD et écriture du ROOtup (un seul disque sur la machine) Exemple 1

5 mai 2008J-P Meyer3 Exemple 2 Extraction de ROOTup commun pour le groupe de Saclay  DPD locaux avant qu’ils n ’existent Lots AOD traités avec ATHENA Jusqu’à 70 job tournant en // sur la grille de Saclay Input: 7000 fichiers AODs (700 Go) lus sur DPM Ouput: ROOTup (60 Go) écrit en fin de job sur DPM  1.7 million événements processés Type de machine: Opteron 2,2 GHz et 2,6 GHz Bande passante observée ~ 50 Mbit/s

5 mai 2008J-P Meyer4 Exemple 3 Analyse de ROOTup ttbar en vue de mesure précises de la masse du quark top. Input: ROOTup Output: plot de masse avec fit Bandes passantes observées: - Optéron 2,6 GHz  25 Mbit/s (CPU load 90%) - Harpertown 2,5 GHz  35 Mbit/s (CPU load 90%) Limitation principale: Puissance du CPU

5 mai 2008J-P Meyer5 Conclusions - La création de ROOTup à partir de AOD semble être l’opération la plus coûteuse en bande passante par ce qu’il ne s’agit en gros de faire que du tri. - En présence d’un système de fichier tel que GPF, LUSTRE ou xrootd permettant d’ouvrir le fichier à distance, le débit peut facilement atteindre de l’ordre de 100 Mbits/s par job si l’architecture réseau le permet. -Les bandes passantes observées lors des opérations d’analyses finales sur les ROOTup semble limitées par la puissance des CPU et de l’ordre de 30 à 40 Mbit/s par job suivant le type de processeur