31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 1 Simulation-Reconstruction ALICE Une application pour le TestBed 0 ?

Slides:



Advertisements
Présentations similaires
CGP2P, école des mines Sous-projet V La participation du LAL au projet CGP2P DataGRID CGP2P.
Advertisements

SRB (Storage Resource Broker)
Le serveur NAS Network Attached Storage, (NAS) désigne un périphérique de stockage relié à un réseau dont la principale fonction est le stockage de données.
Auguste BessonD0-France, Strasbourg, Nov SUSY: RpV Couplage. États finals en di-electrons Auguste BESSON (ISN-Grenoble) SUSY: cadre théorique.
Activités MS dans ATLAS. Projet principal cette année : CSC Exercice « complet » de la chaîne software et danalyse: –Generation, simulation, reconstruction,
CC-Lyon le 21/12/01VO et outil de maj des grid-mafile VO et outil de mise à jour des grid-mapfile
08/07/2002Yves Schutz1 ALICE et la GRILLE État des lieux au 8 juillet 2002 Y. Schutz, SUBATECH, Nantes.
Point sur le DataGRID à Saclay – Mai 2001 D. Calvet, Z. Georgette, M. Huet, J-P. Le Fèvre, I. Mandjavidze, P. Micout, B. Thooris DAPNIA/SEI, CEA Saclay.
Septembre 2001Y. Schutz - ALICE / WP6 France1 Activités GRILLE dALICE.
Grid France – CC In2p3 – 19/07/2001 Travaux du WP4
Yannick LEGRÉ - DataGrid France - Lyon 31 janvier 2001 Tests de Globus Lancement des algorithmes dArtémis à travers la grille... WP 6 / WP 10.
PROJET DATAGRID À lIPSL (Pôle Données) C. Boonne Réunion DataGRID - 31/01/ Lyon.
Nadia LAJILI DataGRID WP6 - Testbed Integration-BILAN Lyon, 12 Juillet 2001.
ISNGRID1 GRIS:isngrid1 ISNGRID2 GRIS:isngrid2 ISNGRID3 GRIS:isngrid3 ISNGRID4 GRIS:isngrid4 GIIS:ISN < seReference MARIANE GIIS:FRANCE < seReference MARDG1.
CC-Lyon le 21 Novembre 2001 Agenda 11h Tour des sites du Testbed Français Situation de la phase d'intégration Charles Loomis Point sur la bio-informatique,
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
User Support Sophie Nicoud DataGrid France – CPPM 22/09/02.
Lyon/ENS DATA GRID-ATLAS ISN Grenoble 1 Portage dune application de physique sur la datagrid Application existante : –Génération/simulation/reconstruction/analyse.
Certificats Globus et DataGrid France
Grid Information Index Service D. Calvet, M. Huet, I. Mandjavidze DAPNIA/SEI CEA Saclay Gif-sur-Yvette Cedex.
Nadia LAJILI STATUS REPORT WP6 Workshop Oxford Lyon,le 19 Juillet 2001.
MDS 2 Michel Jouvin LAL Pourquoi changer ? Sécurité –MDS non intégré avec GSI –Pas didentification des serveurs ni des utilisateurs.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
Tests des modules SSD Stéphane Plumeri Institut de Recherches Subatomiques (IReS), Strasbourg ALICE collaboration Journées ALICE France 23 – 24 Mai 2004.
Affichage LCD RS: Register Selection Transfert de données
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
ANALYSE CROISEE ANTENNES/SCINTILLATEURS
A la recherche des particules étranges avec ALICE
ENST 31/01/ Un environnement de test non intrusif de systèmes temps-réel distribués Claire.
L’expérience ATLAS au LHC
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
15/10/2003ALICE/Yves Schutz1 ALICE Lenvironnement logiciel ALICE & EDG (LCG) « Physics Data Challenge » 2004 Ressources et outils.
Projet région Thématique prioritaire n°10 Calculs Scientifiques Logiciels Rhône-Alpes : Grille pour le Traitement dInformations Médicales (RAGTIME ?)
Lyon, 24/04/2007 Ce que l'application a besoin de connaître: Paramètres physiques par scénario de 150 ans Nombre et numéro d'ordre des mois à effectuer.
Réunion de collaboration du 9-10 Juillet 2008 J.L. Béney 1 Logiciel At  Client-Serveur Tcp/ip de la station autonome  Influence de l'architecture matérielle.
Un serveur de données au format ROOT.
R. Torres Etude du top dans l'experience ATLAS 1.
Yermia Frédéric Etretat Identification du charme et des ,  Avec le spectromètre à muons d’ALICE dans les collisions p-p à 14 TeV Deuxièmes.
Module 8 : Surveillance des performances de SQL Server
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Cynthia HadjidakisQGP FRANCE Le calorimètre électromagnétique d’ALICE : EMCAL Motivations physiques Le calorimètre EMCAL Physique des jets et des photons.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
CS IN2P3 – Lundi 8 décembre 2003Bruno Espagnon – IPN Orsay Le Bras Dimuon d'ALICE Résolution de 70 MeV pour le J/  et 100 MeV pour le  (soit 1%) Etude.
Perspectives de Physique avec ALICE Collisions d’ions lourds au LHC Détecteur ALICE Participation française à la physique d’ALICE Jets Etrangeté Muons.
F. Ohlsson-Malek Data GRID/WP6 meeting Lyon, 8 juillet 2002 ATLAS Data-Grid au CERN et au CCin2p3 F. Ohlsson-Malek, ISN-Grenoble et ATLAS-France.
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Localisation et identification des interactions neutrinos dans le détecteur OPERA. Carole HERITIER Journées Jeunes Chercheurs 2003 Directeurs de thèse.
Des données numériques aux résultats de physique ATLAS offline reconstruction de données CERN ATLAS groupe ATC.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
LHCb DC06 status report (LHCb Week, 13/09/06) concernant le CC : –Site currently fine / stable 3% of simulatated events 30% of reconstructed events –Site.
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
Smain Kermiche 23/07/2001 Journées Informatique IN2P3 DAPNIA 1 L’informatique à D0 D0 à FNAL Données du Run II Infrastructure matérielle Stockage/Accès.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
Yannick Patois _ Journée du Libre _ 1er Novembre n° 1 Datagrid Une grille de calcul sous Linux Yannick Patois.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
PetaSky: Expérimentations avec HadoopDB et Hive 1 Amin Mesmoudi.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Contrôle, configuration et acquisition de données à l’Irfu Laboratoire d’Ingénierie Logicielle pour les Applications Scientifiques.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
LCG-France Edith Knoops CPPM. Le LHC LEP LHC > 95% UNKNOWN STUFF OUT THERE > 95% UNKNOWN STUFF OUT THERE Black hole 3.
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Vue d'ensemble de l'utilisation du CCIN2P3 par les expériences LHC
Transcription de la présentation:

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 1 Simulation-Reconstruction ALICE Une application pour le TestBed 0 ?

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 2 Objectif : P hysics P erformance R eport Évaluer les performances de ALICE pour l ’observation d ’un certain nombre de signaux physiques 5.5A TeV 5.5A TeV

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 3 Stratégie : sérialisation des tâches n Simulations – 8  10 4 particules primaires & signal – géométrie détecteur – suivi à travers le détecteur n Reconstruction événements physiques n Analyse : évaluation des performances de l ’expérience

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 4 Stratégie (1 fichier/evt ) simulation analyse analyse reconstruction Kine gAlice Hits Hits Rparticules ITS ITS PHOS CPU : 25 heures/evt 3  10 5 /PPR 3  10 5 /PPR 1.5 Go/evt 20 To/PPR 20 To/PPR 2OO Go/evt 2OO Go/evt 2 To/PPR 2 To/PPR CPU : 5 heures/evt >5  10 4 /PPR >5  10 4 /PPR CPU :interactif 800 utilisateurs

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 5 Du calcul distribué Du calcul distribué CERN Amsterdam - NIKHEF Cagliari - INFN Catania - INFN Columbus - Ohio State University Darmstadt - GSI Dubna - JINR Lyon - IN2P3 Padova - INFN Torino - INFN

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 6 Les outils n Des générateurs : Hijing, Nexus, Pythia, utilisateurs n Des traqueurs : GEANT3, GEANT4 n Bibliothèques de classes hiérarchisées par détecteur et par fonction n Gestionnaire de tâches AliRoot & Root administrés et distribués par CVS administrés et distribués par CVS

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 7 Comment faire pour... Comment faire pour... n Exploiter toute la puissance de calcul disponible n Distribuer les données à tous les utilisateurs n Organiser la production, balancer la charge CPU, optimiser les transferts sur réseau

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 8 Simulation Simulation utilisateur Données « brutes » N événements fond N événements fond M événements signal M événements signal M > N RDB CPU disque CPU disque

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 9 Simulation n La production est –planifiée –distribuée (centralisme ou autogestion) n Les données sont stockées –par le site de production –par un site central (bande passante) n RDB pour s’y retrouver

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 10 I’m the local surveyor Local Long term storage HPSS Run DB MySQL Batch surveyor Global Long term storage bbFTP CC Linux farm BQS CC IN2P3 WWW Globus I’m the PPR production manager Catania Torino Lyon I’m the impatient ALICE user checking the availability of events Anywhere Un banc de test opérationnel

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 11 Banc de test n Pas encore une application GRID (gadget) n Les données ne sont pas disponibles n Duplication des données n Comment dupliquer ce schéma en le rendant coopératif

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 12 Reconstruction (option 2) Reconstruction (option 2) Donnéesreconstruites CPU disque Données « brutes » N événements fond N événements fond M événements signal M événements signal M > N RDB utilisateur

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 13 Reconstruction n Organisation –centralisée – décentralisée –self service pour 800 utilisateurs

31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 14 Selection Parameters DB1 DB4 DB5 DB6 CPU Local Remote Procedure Proc.C PROOF CPU TagDB RDB DB3 DB2 OPTION GRID