Data Challenge 2013 et Infrastructure au CC-IN2P3 Réunion de collaboration LSST France Clermont-Ferrand 11 février 2013 Dominique Boutigny.

Slides:



Advertisements
Présentations similaires
1 HPC pour les opérations. Sommaire Quelques rappels sur Windows Compute Cluster Server Déploiement de Compute Cluster Administration de Compute cluster.
Advertisements

CLUSTERING Grappe d'ordinateurs.
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
18 avril 2002réunion Datagrid France1 E-toile Plate-forme RNTL 2001 Environnement matériel et logiciel pour le développement et l expérimentation de grille.
Informatique parallèle hautes performances
simulateur de réseau de machines UML connectées par WiFi mode ad-hoc
Système de stockage réseaux NAS - SAN
30/03/2017 Formation Plan 1.
Retour sur l'allocation d'espace Exemple sur une table facture (sans les tables associées) N° fact, N° Client, N° Cde, date Cde, date fact, date réglement,
Gérard Gasganias Ingénieur Avant-Vente Microsoft France
…. Service 1Service 2Service NService 3 …… North Central USA South Central USA Irlande Pays-Bas Hong Kong Singapour Contrat de service entreprise,
Scientific Data Preservation Project Call: Mastodons
Métiers de Télécom Marché de l'emploi Profils de métier Débouchés.
Retour dexpérience Supportech INSA.NET Daniel Boteanu – Michaël Piffret.
Un serveur de données au format ROOT.
Plan Définitions et exemples Composants de cluster
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Dyalog.Net Peter Donnelly Managing Director Dyadic Systems Toronto 30/10/2002.
D. E ZEGOUR Institut National d ’Informatique
Offre DataCenter & Virtualisation Laurent Bonnet, Architecte Systèmes Alain Le Hegarat, Responsable Marketing 24 Novembre 2009.
CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
CMS ATLAS LHCb CERN Tier 0 Centre at CERN National Centres Lab a Russia Lab c Uni n Lab b Manno Canada Uni y Uni x Tier3 physics department  Ge  Germany.
Gestion de données : Besoins de la VO Biomed Sorina Pop Laboratoire Creatis Université de Lyon, CREATIS; CNRS UMR5220; Inserm U1044; INSA-Lyon; Université.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
Clustering. Le Clustering est une technique qui consiste à assembler virtuellement plusieurs machines afin de les faire travailler en parallèle. Cela.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
LSST : Big data = Big science? Reunion Renoir 18 Nov 2013.
PaCO++ André Ribes Réunion Hydrogrid Rennes 15/09/03.
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
Réunion de collaboration LSST-France APC décembre 2013 Dominique Boutigny CNRS-CC-IN2P3 / SLAC  Rôle de l'IN2P3 dans le calcul LSST et DESC  Proposition.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Lellouche Aaron ITIC Paris
HEPIX N. Neyroud 1.
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
Le programme présent  GLAST (2008, calorimètre, calibration, logiciels, LLR,CENBG,LPTA )  13 chercheurs, 2 IR, 4 thèses, 2 post docs  ¼ des coordinateurs.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
Gestion de configuration
Système de récupération de données pour EMC Avamar.
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
SQLSaturday Paris 2015 La BI dans le Cloud Quelles solutions ? Franck Microsoft.
Dominique Boutigny Une infrastructure informatique au service des chercheurs et des industriels rhônalpins Journée de lancement de l’initiative TIDRA Traitement.
Retour d'expérience de l'utilisation du cloud comme infrastructure de service Guillaume PHILIPPON.
Projet StratusLab Technologies Cloud et Virtualisation M. Airaj (CNRS/LAL), C. Loomis (CNRS/LAL) LCG-France, CPPM Marseille Juin 2010 The StratusLab.
PetaSky: Expérimentations avec HadoopDB et Hive 1 Amin Mesmoudi.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Roadmap opérations Revue fin 2013 Planification 2014 Visio opérations – décembre 2013.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Migration du système de sauvegarde d’une infrastructure locale à un système centralisé IN2P3 101/06/2016 HEPIX Spring 2013 Muriel Gougerot (LAPP) and Remi.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
Opérations France-Grilles : Etat des lieux Hélène Cordier/Gilles Mathieu LCG France, 30 Mai 2011.
Grid au LAL Michel Jouvin LAL / IN2P3
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
CAF-11/10/2010Luc1 Squad Report T1 Période 13/09-11/10 Irena, Sabine, Emmanuel.
Resource allocation: what can we learn from HPC? 20 janvier 2011 Vincent Breton Crédit: Catherine Le Louarn.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
L’architecture du service Dirac Implementation au centre de calcul.
Centre de Calcul de l’Institut National de Physique Nucléaire et de Physique des Particules Table Ronde : Quelles orientations pour le CC ? JP2015, Autrans.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Transcription de la présentation:

Data Challenge 2013 et Infrastructure au CC-IN2P3 Réunion de collaboration LSST France Clermont-Ferrand 11 février 2013 Dominique Boutigny

Data Management Roadmap (1) 11 février 2013 Février 2013 – Juillet 2013 Middleware Demonstrate ability to do shared processing with IN2P3 Choose baseline job control technology, incorporate into design core parallel production run Demonstrate ability to do shared processing with IN2P3 Choose baseline job control technology, incorporate into design core parallel production run Infrastructure New XD allocation for full-scale runs on cluster at NCSA New XD allocation on NCSA mass storage system Development environment with 25 servers and 175 TB of storage Database tests on SLAC cluster Full focal-plane runs on (TACC Lonestar, Ranger) IN2P3 cluster and storage New XD allocation for full-scale runs on cluster at NCSA New XD allocation on NCSA mass storage system Development environment with 25 servers and 175 TB of storage Database tests on SLAC cluster Full focal-plane runs on (TACC Lonestar, Ranger) IN2P3 cluster and storage Database Performance Shared scans prototype, small scale test 200+ node scalability test (stretch goal: with shared scans) Further work on usability, stability, and performance optimizations (incl. better parser, multi-database support, user-level query management, qserv dynamic metadata, table management tools) Shared scans prototype, small scale test 200+ node scalability test (stretch goal: with shared scans) Further work on usability, stability, and performance optimizations (incl. better parser, multi-database support, user-level query management, qserv dynamic metadata, table management tools) Data distribution / Transfer performance As above plus Data Transfer 1 Gbps (US - Chile networks, DES-DTS based, IN2P3) Distributed File System Evaluation Report and down-select baseline for FDR As above plus Data Transfer 1 Gbps (US - Chile networks, DES-DTS based, IN2P3) Distributed File System Evaluation Report and down-select baseline for FDR

Data Management Roadmap (2) 11 février 2013 Processed data SDSS Stripe82 (Production) CFHT-LS D1-D4 and W1-W4 (IN2P3, if they are ready) DLS (UCD, if low effort) ImSim LSST Images (Production, new with complex galaxy models, 2k visits in 2+ colors) SDSS Stripe82 (Production) CFHT-LS D1-D4 and W1-W4 (IN2P3, if they are ready) DLS (UCD, if low effort) ImSim LSST Images (Production, new with complex galaxy models, 2k visits in 2+ colors) Construction of co-add PSF based on single-frame PSFs Differential astrometry Improve image co-addition Stack-fit for point sources, extended sources Multi-fit for point sources, extended sources Construction of co-add PSF based on single-frame PSFs Differential astrometry Improve image co-addition Stack-fit for point sources, extended sources Multi-fit for point sources, extended sources Pipelines / Productions As S12 but not forced photometry. Multi-fit/stack-fit based object characterization on coadds, including shape measurements for faint Objects. Output Data (Science usable)

Ressources au CC-IN2P3 pour le DC 11 février 2013 Raw data : 3.2 Gpix/exp * 2 bytes/pix * 2 exps/visit * 0.5 (compress) = 6.4 GB / visit 6.4 GB/visit * 5000 visits = 32 TB Calibrated data (Calexps) : 3.2 Gpix/visit * 10 bytes/pix *0.5 (compress) = 16 GB / visit 16 GB/visit * 5000 visits = 80 TB Co-added data (ouputs) : 3.2 Gpix/field/band *3 bands * 10 bytes/pix = 96 GB / field 96 GB / field * 10 fields = 960 GB Temporaries : Warped calexps for co-add generation : 88 TB Others : ~20 TB Stockage

11 février 2013 Scénario 1 : On peut effacer rapidement les fichiers temporaires de la phase co-add – On ne garde que 1 FoV : ~144 TB Scénario 2 : On efface rapidement les fichiers temporaires et on ne garde pas les calexps : ~74 TB Scénario 3 : On garde tout sur disque : ~220 TB Scénario le plus vraisemblable  On disposera de 100 TB au CC-IN2P3 sur du matériel récupéré (SUN X4550) Ressources au CC-IN2P3 pour le DC CPU : ~110k cœurs.heure pour 5000 visites (co-addition seule) Multi-fit : ~x2 ou x3 Demande de LSST : ~100k cœurs.heure 1 cœur physique : ~17 HS06  100k cœurs.heure  1.7 MHS06 soit 10% de la puissance du CC (2012) sur 1 mois.  Demande 2013 pour LSST au CC : 10 MHS06 OK

Points de discussion avec LSST-DM 11 février 2013 Le CC a une grosse expérience avec le système de gestion / distribution de données iRODS Christian est en contact avec les experts du CC (Jean-Yves Nief) Voir le Wiki : Christian est en contact avec les experts du CC (Jean-Yves Nief) Voir le Wiki :  Pousser fort pour son utilisation lors du DC …et après… Le système de soumission des tâches durant le DC doit être compatible avec... / acceptable par… le CC  à explorer On parle beaucoup en ce moment de fédérations d'identités  Gros travail actuellement dans la communauté EGI suivi de près par OSG  À suivre au niveau du CC-IN2P3 pour éviter des mauvaises surprises sur un sujet très sensible au niveau de la sécurité On parle beaucoup en ce moment de fédérations d'identités  Gros travail actuellement dans la communauté EGI suivi de près par OSG  À suivre au niveau du CC-IN2P3 pour éviter des mauvaises surprises sur un sujet très sensible au niveau de la sécurité

Banc(s) de test pour Qserv 11 février 2013 Les développeurs de Qserv ont besoin d'une plateforme suffisamment dimensionnée afin de tester le déploiement des versions successives et de faire des tests systématiques sur la configuration de Qserv Proposition du CC de recycler un ensemble de 50 IBM iDataplex sorties de maintenance × 6 = 390 serveurs Xeon GHz – 2 × 4 cœurs – 16 GB de mémoire Disque dur : 160 GB ( GB disponibles pour les données) Nécessité de mettre en place une procédure de déploiement automatisée sur les 50 nœuds (Puppet ?) Proposition validée par le CC d'étendre la plateforme de tests à 250 – 300 nœuds pour un test à grande échelle en vue de la FDR À faire : Trouver une solution pour connecter un espace de stockage tampon suffisamment grand pour le chargement initial des bases de donnée

Plateforme OpenStack 11 février 2013 La plateforme Cloud du CC-IN2P3 est basée sur OpenStack En cours de déploiement Ouverte en bêta test Opportunité pour LSST de disposer de puissance de calcul sous une forme particulièrement souple  L'utilisateur configure ses propres machines virtuelles (VM) avec l'OS et les softs de son choix  Disposer d'un ensemble de VM pré-configurées pour LSST et adaptées aux applications (traitement d'images – simulations – pipelines d'analyses – … ) 400 cœurs 1.5 TB RAM 32 TB disques 32 Gb/s réseau 400 cœurs 1.5 TB RAM 32 TB disques 32 Gb/s réseau Interfaces : Nova (OpenStack natif) – EC2 (Amazon) Doc : + Wiki LSSThttp://cc.in2p3.fr/docenligne/1011 Proposition : Utiliser le Cloud du CC pour faire de la production de simulation pour LSST / DESC

11 février 2013 Crédit : Mattieu Puel En cours de déploiement