15/10/2003ALICE/Yves Schutz1 ALICE Lenvironnement logiciel ALICE & EDG (LCG) « Physics Data Challenge » 2004 Ressources et outils.

Slides:



Advertisements
Présentations similaires
Responsable du marketing produits - Nouvelles technologies zone EMEA
Advertisements

Stockage et sauvegarde
Gérer son parc hétérogène depuis MOM et SMS avec QMX de Quest Software Laurent CAYATTE Consultant avant-vente Quest Software.
Comment Protéger les bases SQL avec System Center Data Protection Manager 2007.
Status report SOLEIL April 2008
08/07/2002Yves Schutz1 ALICE et la GRILLE État des lieux au 8 juillet 2002 Y. Schutz, SUBATECH, Nantes.
WP9 – Earth Observation Applications – n° 1 Rapport du WP9 ESA, KNMI, IPSL Présenté by L. Peltier, IPSL.
Septembre 2001Y. Schutz - ALICE / WP6 France1 Activités GRILLE dALICE.
Grid France – CC In2p3 – 19/07/2001 Travaux du WP4
DataGRID PTB, Geneva, 10 April 2002 ATLAS Data Challenges Fede Eric.
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
User Support Sophie Nicoud DataGrid France – CPPM 22/09/02.
Lyon/ENS DATA GRID-ATLAS ISN Grenoble 1 Portage dune application de physique sur la datagrid Application existante : –Génération/simulation/reconstruction/analyse.
Nadia LAJILI STATUS REPORT WP6 Workshop Oxford Lyon,le 19 Juillet 2001.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
Plan de formation Chapitre 1 : Présentation de SAP
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
Tests des modules SSD Stéphane Plumeri Institut de Recherches Subatomiques (IReS), Strasbourg ALICE collaboration Journées ALICE France 23 – 24 Mai 2004.
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
Le protocole FTP.
Configuration de Windows Server 2008 Active Directory
Alain Romeyer - 15/06/20041 UMH Machines livrées le 08/04/2005 Configuration choisie (différente des autres sites) : 6 machines SUN Fire V20Z.
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
Module 3 : Création d'un domaine Windows 2000
Réseau de stockage étendu
Réunion de collaboration du 9-10 Juillet 2008 J.L. Béney 1 Logiciel At  Client-Serveur Tcp/ip de la station autonome  Influence de l'architecture matérielle.
Un serveur de données au format ROOT.
Mise en oeuvre et exploitation
31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 1 Simulation-Reconstruction ALICE Une application pour le TestBed 0 ?
Alice LCG Task Force Meeting 16 Oct 2008Alice LCG Task Force Meeting 16 Oct 2008 BARBET Jean-Michel - 1/20BARBET Jean-Michel - 1/20 LCGFR Marseille Juin.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
CMS ATLAS LHCb CERN Tier 0 Centre at CERN National Centres Lab a Russia Lab c Uni n Lab b Manno Canada Uni y Uni x Tier3 physics department  Ge  Germany.
Gestion de données : Besoins de la VO Biomed Sorina Pop Laboratoire Creatis Université de Lyon, CREATIS; CNRS UMR5220; Inserm U1044; INSA-Lyon; Université.
Mod è le de Calcul CMS C. Charlot / LLR CTDR:
Module 3 : Création d'un domaine Windows 2000
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
L’environnement Labo : nom du labo (PP, PN, Astro éventuellement dans l’ordre d’importance) Effectif du labo : xxx personnes Nombre d’IT : xxx dont au.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
CS IN2P3 – Lundi 8 décembre 2003Bruno Espagnon – IPN Orsay Le Bras Dimuon d'ALICE Résolution de 70 MeV pour le J/  et 100 MeV pour le  (soit 1%) Etude.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
F. Ohlsson-Malek Data GRID/WP6 meeting Lyon, 8 juillet 2002 ATLAS Data-Grid au CERN et au CCin2p3 F. Ohlsson-Malek, ISN-Grenoble et ATLAS-France.
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
Smain Kermiche 23/07/2001 Journées Informatique IN2P3 DAPNIA 1 L’informatique à D0 D0 à FNAL Données du Run II Infrastructure matérielle Stockage/Accès.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
Yannick Patois _ Journée du Libre _ 1er Novembre n° 1 Datagrid Une grille de calcul sous Linux Yannick Patois.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
INFSO-RI Enabling Grids for E-sciencE Support MPI avec Torque/PBS C. Loomis (LAL-Orsay) EGEE-FR Conférence Téléphonique 7 Juin 2005.
Catalogues de fichiers de données. David Bouvet2 Problématique Possibilité de répliquer les fichiers sur divers SE  nécessité d’un catalogue de fichiers.
1Prod Monte Carlo sur le nuage français La production Monte-Carlo sur le nuage français J.Schwindling CEA / DAPNIA Organisation de la production Monte-Carlo.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
CAF-11/10/2010Luc1 Squad Report T1 Période 13/09-11/10 Irena, Sabine, Emmanuel.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
ALICE Data Challenge Rappel sur l’environnement logiciel
LCG – France et ALICE Bilan 2006 Planning fevrier 2007
Transcription de la présentation:

15/10/2003ALICE/Yves Schutz1 ALICE Lenvironnement logiciel ALICE & EDG (LCG) « Physics Data Challenge » 2004 Ressources et outils

15/10/2003ALICE/Yves Schutz2 Lenvironnement logiciel AliRoot Utilisateur Simulation, Reconstruction, Calibration, Analyse C++ ROOT Système GUI Persistent ES Libs Utilitaires C++ World Interfaces & Environnement de calcul distribué anything Super! Je nai quà apprendre le C++ HEP use cases: Simulation & Reconstruction Mélange dévénements Analyse

15/10/2003ALICE/Yves Schutz3 Lenvironnement logiciel AliRoot C++: 400kLOC + 225kLOC (générés) + macros: 77kLOC FORTRAN: 13kLOC (ALICE) + 914kLOC (paquets externes) SAV Linux (toute version!), HP-UX, DEC Unix, Solaris, MacOSX, Intel Itanium Marche également avec compilateur icc de Intel Deux paquets à installer (ROOT+AliRoot) + MCs Édition de lien moins de 1 second (libs partagées) Téléchargement et make (makefile non-récursif) AliEn 25kLOC PERL5 (ALICE) ~2MLOC en majorité PERL5 (open source) Installé dans 50 sites par les physiciens >50 utilisateurs développent AliRoot partie détecteurs 30% développés par une équipe regroupée au CERN

15/10/2003ALICE/Yves Schutz4 Lenvironnement THRONG_DIR offline Root (HEAD) GEANT3 (HEAD) AliRoot (HEAD) AliEn (HEAD) alien (install) AliEn_ packages AliRoot (versions) Root (versions) Développements Production Max 4 Go; aujourdhui 81% 256Mo140Mo2.1Go10.1Ko223Mo ~400Mo/version

15/10/2003ALICE/Yves Schutz5 Lenvironnement GROUP_DIR: 1 partition 8Go, dont aujourdhui 70% utilisés Attribution par utilisateurs + tempo schutz … tempo

15/10/2003ALICE/Yves Schutz6 cchpssalice:/hpss/in2p3.fr/group/alice Production ALICE : ppr/sim/année-No/VersionAliRoot/Run/événement/*.root Production individuelle ppr Utilisa teurs xx yy ? Catalogue AliEn Cahier ~4 To

15/10/2003ALICE/Yves Schutz7 Communication avec Worker dédié: ccwalj01 Quelques ports ouverts vers alien.cern.ch Mais sens unique: on perd une fonctionnalité de AliEn (télécommande) Vers une machine dédiée ALICE AliEn en mode batch nest pas une solution efficace Perte du token afs Pas de cronjob Logon autorisé (limité dans le temps) ccwalj01 Ouverture ports 9000/1/2/3 pour monitoring (MonALISA)MonALISA

15/10/2003ALICE/Yves Schutz8 Physics Data Challenges Période (milestone) Fraction de la capacité finale (%) Objectifs scientifiques 06/01-12/011% Études pp, reconstruction de TPC et ITS 06/02-12/025% Premier test de la chaine complète, de la simulation à la reconstruction pour PPR Outils danalyse rudimentaires Digits au format ROOT 01/04-06/0410% Chaine complète pour études de trigger Prototype des outils danalyse Comparaison avec MonteCarlo paramètré Données brutes simulées 01/06-06/0620% Test du système final pour la reconstruction et lanalyse

15/10/2003ALICE/Yves Schutz9 Productions 32 sites configurés (CC & SUBATECH) 5 sites fournissent du stockage de masse (CC) 12 productions différentes tâches validées (très faibles contributions du CC), 2428 échecs (10%) Jusquà 450 tâches en parallèle 0.5 opérateurs

15/10/2003ALICE/Yves Schutz10 ALICE & GRID Yerevan CERN Saclay Lyon Dubna Capetown, ZA Birmingham Cagliari NIKHEF GSI Catania Bologna Torino Padova IRB Kolkata, India OSU/OSC LBL/NERSC Merida Bari Nantes Houston RAL

15/10/2003ALICE/Yves Schutz11 Soumission EDG RB EDG Site EDG CE WN AliEn EDG SE Status report: outbound connectivity Server Interface Site AliEn CE EDG UI AliEn SE Les CEs de EDG sont vus comme un seul CE de AliEn et les SEs de EDG comme un seul SE de AliEn. AliEn fait partie de lenvironnement ALICE (pas de daemons dans WN) Communication avec EDG UI de EDG tourne sur un site interface ainsi que la suite client de AliEn - ClusterMonitor, CE, SE Cette interface prend (pulls) une tâche à partir du serveur, génère les requètes JDL et soumet la tâche au RB de EDG. La tâche active AliEn dans le WN pour communiquer avec le serveur AliEn

15/10/2003ALICE/Yves Schutz12 Communication avec EDG Sorties générées par le CE de EDG sont sauvegardées sur un SE de EDG. L information est transmise à AliEn par le fichier.Brokerinfo Les fichiers sont enregistrés dans le catalogue de EDG Les fichiers sont également enregistrés dans le catalogue de ALiEn (EDG LFN == AliEn PFN) Laccès aux fichiers se fait en 2 étapes par le catalogue de AliEn et le catalogue de EDG Data Catalogue EDG RC EDG Site EDG CE WN AliEn EDG SE LFN PFN EDG:// /

15/10/2003ALICE/Yves Schutz13 Stratégie de PDC3 Production de RAW Transfert de RAW vers CERN Reconstruction de RAW Analyse CERN Tier2Tier1Tier2Tier1 AliEn job control Data transfer

15/10/2003ALICE/Yves Schutz14 Estimation des ressources PDC3 Simulation 10 5 Pb-Pb p-p Production distribuée, réplication des données au CERN Reconstruction et analyse Pb-Pb p-p Reconstruction au CERN et ailleurs selon les ressources disponibles CERN est la source des données Ressources (CPU et Stockage) 2004 Q1: 1354 KSI2K et 165 TB 2004 Q2: 1400 KSI2K et 301 TB Cf. document présenté au PEB Bande passante Simulation en 2004 Q1 ~90 TB seront envoyés au CERN en 2 mois (~10 jours en utilisant 10% de la bande passante du CERN.

15/10/2003ALICE/Yves Schutz15 Profil des ressources

15/10/2003ALICE/Yves Schutz16 Ressources disponibles 200TB nécessaires après PDC3 pendant 2004 Les ressources disponibles sont estimées en supposant leur utilisation simultanée par les 4 expériences.

15/10/2003ALICE/Yves Schutz17 Ressources disponibles LCG

15/10/2003ALICE/Yves Schutz18 ALICE PDC3 & LCG Tout la production sera sous contrôle de AliEn, lanalyse se fera avec Root/Proof/AliEn. LCG-1 sera un des CE de AliEn, AliEn intègrera indifféremment les ressources LCG et non-LCG. Si LCG-1 fonctionne, il aspirera la plupart des tâches. Sinon, AliEn privilégiera les autres ressources. Dans tous les cas de figure LCG-1 sera utilisé autant que possible. ALICE ne prendra aucune décision: les performances du système imposeront les choix.

15/10/2003ALICE/Yves Schutz19 ADC DateMBytes/s Tbytes to MSS Offline milestone 10/ Rootification of raw data -Raw data for TPC and ITS 9/ Integration of single detector HLT, at least for TPC and ITS - Quasi on-line reconstruction at CERN - Partial data replication to remote centres 5/ HLT prototype for all detectors that plan to use it - Remote reconstruction of partial data streams -Raw digits for barrel and MUON 5/ Prototype of the final HLT software Prototype of the final remote data replication (Raw digits for all detectors) 5/ (1250 if possible) Final test (Final system)

15/10/2003ALICE/Yves Schutz20 Analyse GRID Asynchrone Pseudo interactif Exécution des tâches (transparente à lutilisateur) Faisable avec AliEn + ROOT Interactif Système synchrone Résultats disponibles instantanément Il faut: Une nouvelle fonctionnalité (AliEn + PROOF) Grande disponibilité des ressources Utilisateur fournit le script danalyse.... et désire traiter toutes les données labelées du run et les données sont distribuées

15/10/2003ALICE/Yves Schutz21 Analyse distribuée: AliEn+Root AliEnfs: le stockage distribué est vu comme un seul système de fichiers à la unix Un job par fichier est créé Les résultats sont regroupés dans des conteneurs ROOT ******************************************* * * * W E L C O M E to R O O T * * * * Version 3.03/09 3 December 2002 * * * * You are welcome to visit our Web site * * * * * ******************************************* Compiled for linux with thread support. CINT/ROOT C/C++ Interpreter version , Oct Type ? for help. Commands must be C++ statements. Enclose multiple statements between { }. root [0]newanalysis->Submit(); Analysis Macro MSS CE merged Trees +Histograms ? Query for Input Data

15/10/2003ALICE/Yves Schutz22 Classic PROOF PROOF USER SESSION PROOF SLAVE SERVERS 32 nodes: dual Itanium II 1 GHz CPUs, 2 GB RAM, 2x75 GB 15K SCSI disk, 1 Fast Eth, 1 GB Eth nic (not used) Each node has one copy of the data set (4 files, total of 277 MB), 32 nodes: 8.8 Gbyte in 128 files, 9 million events 8.8GB, 128 files 1 node: 325 s 32 nodes in parallel: 12 s

15/10/2003ALICE/Yves Schutz23 AliEn + ROOT Analysis Macro provides: Input Files ? Query for Input Data USER produces List of Input Data + Locations new TAliEnAnalysis Object IO Object 2 for Site A IO Object 1 for Site BI IO Object 1 for Site C IO Object 1 for Site A Job Object 1 for Site A Job Object 2 for Site A Job Object 1 for Site B Job Object 1 for Site C Job Submission Job Splitting Histogram Merging Tree Chaining Results: Execution

15/10/2003ALICE/Yves Schutz24 Conclusions Augmenter taille THRONG_DIR +2Go GROUP_DIR: on fait avec 8Go Reconduire les ressources utilisées hors PDC Une machine dédiée ALICE simplifierait la vie de tout le monde Resources nécessaires pour PDC3: Production organisée Q Analyse Q1-Q CPU Disques HPSS Réseau autant que le CC a annoncé pour ALICE au travers de LCG ou non