Tier1 at the CC-IN2P3 March 2004. Current state at the CC-IN2P3 storage, computation, network...

Slides:



Advertisements
Présentations similaires
Status report SOLEIL April 2008
Advertisements

Nadia LAJILI STATUS REPORT WP6 Workshop Oxford Lyon,le 19 Juillet 2001.
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
L’Heure Telling Time.
Alain Romeyer - 15/06/20041 UMH Machines livrées le 08/04/2005 Configuration choisie (différente des autres sites) : 6 machines SUN Fire V20Z.
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
Vzdělávací systém pedagogů ve Švýcarsku. Education 1. What type of education in on each stage of development children have - Elementary, Secondary, High.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
31/01/2001Réunionn WP6-Y. Schutz (SUBATECH) 1 Simulation-Reconstruction ALICE Une application pour le TestBed 0 ?
La célèbre chaîne de magasins H&M a créé une collection entièrement inspirée par les forêts et les jardins. C'est précisément pour cela qu’elle a créé.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
3 Les Verbes -ER Talking about people’s activities Les normes: –Communication 1.2: Understanding the written and spoken language –Comparisons 4.1: Understanding.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
2-mars-2009Eric Lançon1 Nouvelles d’ATLAS Reunion LCG 2 mars 2009 Lyon.
CMS ATLAS LHCb CERN Tier 0 Centre at CERN National Centres Lab a Russia Lab c Uni n Lab b Manno Canada Uni y Uni x Tier3 physics department  Ge  Germany.
LCG-France: Tier-1 au CC-IN2P3 Bilan 2005 et perspectives 2006 Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Gestion de données : Besoins de la VO Biomed Sorina Pop Laboratoire Creatis Université de Lyon, CREATIS; CNRS UMR5220; Inserm U1044; INSA-Lyon; Université.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
BENCHMARK JOBS Marie-Laure Rivier – January 2015.
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
ANR RADIA (ex-RADEC) Desintegrations radiative des particules belles.
Annual Best Practices Sessions / Ateliers annuels sur les pratiques exemplaires PERFORMANCE MONITORING, REPORTING AND EVALUATION: WHAT’S THE POINT OF.
Experiments, Schedule & Access to the hall. Magdalena Kowalska.
Abéché Est du Tchad – Septembre 2009 Abéché – Eastern Chad - September Ramadan.
Annual Best Practices Sessions / Ateliers annuels sur les pratiques exemplaires PERFORMANCE MONITORING, REPORTING AND EVALUATION: WHAT’S THE POINT OF.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
Le poisson d’avril.
Pile-Face 1. Parlez en français! (Full sentences) 2. One person should not dominate the conversation 3. Speak the entire time The goal: Practice! Get better.
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Présentation des architectures et scénarios de tests
Gains from trade Principle # 5: Trades improve the well-being of all.
Michel Jouvin LAL/Orsay
Modèles d’interaction et scénarios
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
« © CEA [2006]. Tous droits réservés. Toute reproduction totale ou partielle sur quelque support que ce soit ou utilisation du contenu de ce document est.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
LHCb DC06 status report (LHCb Week, 13/09/06) concernant le CC : –Site currently fine / stable 3% of simulatated events 30% of reconstructed events –Site.
Soutenance de fin d'études ESIEA Développement de modules pour un portail pour clubs sportifs Rémi Khounsamnane promotion 2006.
Site report et IT Facilities. Site report : à retenir GPFS est toujours (de plus en plus utilisé) Les interconnects entre stockage et « calcul » sont.
TAX ON BONUSES. Cette présentation appartient à Sefico. Elle est protégée par le code de la propriété intellectuelle : toute reproduction ou diffusion.
Le programme présent  GLAST (2008, calorimètre, calibration, logiciels, LLR,CENBG,LPTA )  13 chercheurs, 2 IR, 4 thèses, 2 post docs  ¼ des coordinateurs.
Smain Kermiche 23/07/2001 Journées Informatique IN2P3 DAPNIA 1 L’informatique à D0 D0 à FNAL Données du Run II Infrastructure matérielle Stockage/Accès.
-Transporter specifications sent for comments to Markus and Jean-Louis -We would like to have a mecanum transporter -Feedback from SEAQX: -For the same.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
Yearly User CC-Lyon Summary J. Brunner CPPM Antares.
With a partner, try to name all these things without looking at your vocab list!!
RozoFS KPI’s edition /04/2014. © Fizians Ce document ne peut être reproduit ou communiqué sans autorisation écrite. 2 RozoFS high level architecture.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
Catalogues de fichiers de données. David Bouvet2 Problématique Possibilité de répliquer les fichiers sur divers SE  nécessité d’un catalogue de fichiers.
Retour d'expérience sur le déploiement d'un site grille de production Pierre Girard EGEE/LCG ROC Deputy EGEE/LCG RC coordinator Centre de Calcul de l’IN2P3.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
TITLE Business PowerPoint Templates PowerPoint note pad template.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
CAF-11/10/2010Luc1 Squad Report T1 Période 13/09-11/10 Irena, Sabine, Emmanuel.
Resource allocation: what can we learn from HPC? 20 janvier 2011 Vincent Breton Crédit: Catherine Le Louarn.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Page : 1 ObjectWeb 04/10/2004 Direction Générale du Système d ’Information Ce document est la propriété intellectuelle de DASSAULT AVIATION. Il ne peut.
Cisco Confidential 1 © Cisco and/or its affiliates. All rights reserved. Objets connectés & intelligents Enjeux et stratégies pour les filières.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
IGTMD réunion du 4 Mai 2007 CC IN2P3 Lyon
Résumé CB WLCG du 3 février 2005
POPULATION GROWTH IN AFRICA EXHIBITOR: Papa Abdoulaye Diouf.
INS Tunisia, Towards a fully SDMX compliant Information system
M’SILA University Information Communication Sciences and technology
Transcription de la présentation:

Tier1 at the CC-IN2P3 March 2004

Current state at the CC-IN2P3 storage, computation, network...

Architecture

Cluster processors (90% Linux Redhat 7.2) - Job submissions : BQS - Parallel computation

Tape storage TB via 60 drives - 6 robots, up to tapes 200 GB - 58MB/s (1 month) - Data accessed with HPSS Current capacity

Disk storage - AFS Server 5 TB - NFS storage 12 TB - HPSS cache 12 TB - Objectivity server 30 TB - MySQL, Oracle 1 TB

Network Site connectivity: 1Gb link to RENATER (RENATER-GEANT: link 2.5Gb) 1Gb link to the CERN Workers: Fast Ethernet Internal network: GigaEthernet

Services - WEB services (site hosting...) - CVS servers - EDG-AutoBuild services - news - User support

Planned extensions storage, computation...

Tape storage: storage volume doubles each year 30 tape drives (this year) Disk storage: 40 TB (short term), 80 TB (this year) Clusters: 200 bi-opteron (this year) Network: Gb links for workers

Other/new storage systems: - XFS - IRIX shared file system - other 'flat-like' file systems

Cooling systems Problems with cooling systems - increase of 'heat generators' - some mechanical troubles - 'environment' problems (natural water T°) Studies for large changes in our cooling system and in the clusters room.

Workers Several types of workers: Linux, IBM (AIX), Sun, (HP) For Linux installation: - PXE servers, with generic/specific config. - RedHat kickstart system - NFS/HTTP servers for OS (6.x, 7.x, RHEL) - internal post-install tools (AFS, security, monitoring, BQS parts...)

Workload at the CC-IN2P3 Experiments: Babar, D0, LHC (Atlas, Alice, CMS, LHCB), Astro (Auger, Virgo...), Biology... Jobs scheduled: - around 1100 jobs at the same time - around 5000 jobs per day - around 9M hour of SI2000 per day

Main points at the CC-IN2P3. Storage access with good rates even with many connections. Good CPU available, which doubles every year. Homogenous job scheduler for all experiments (good CPU usage rate). BQS // in final stage (biology experiments)

Ressources for LHC This year: about 30% of our ressources devoted to LHC (all experiments of the LHC) Next years: 10% more each year, until 50% The CC-IN2P3 budget:. -20% these years from the CNRS. around 6 million euros / year (w/o salaries). no LHC budget augmentation, but budget reports to stabilize it People working at CC-IN2P3: people (sysunix, production, network, storage, support, grids, WEB, administration,...). about 40% are non-permanent staff

LCG2 at the CC-IN2P3 LCG2 is in installation stage - automatic installation (LCFGng) - manual installation Our current work on LCG2: - BQS as job scheduler - HPSS for storage management through SRM Important: compatibility with our production farm -> AFS support (internal management & accounts) -> Choice of the OS type (support for opteron...)

Ressources for LHC LCG & LHC n'est qu'une partie du CC-IN2P3 Pour LHC (au total, sur les 4 manip.) -> 30% ressources cette année -> 40% ensuite... Prévision d'augmentation « sérieuse » des budgets. À l'heure actuelle on n'y arrive pas. Budget réel en décroissance sur le centre. À l'heure actuelle, -20% sur budget CNRS, mais report budget pour stabiliser budget LHC. Budget à env. 6 millions d'euros + salaires (2 millions). Demande de 2 millions en + mais pas reçus. Sans financement, cela aura un impact sur les ressources que l'on pourra metrtre à disposition du LHC. Jusqu'à présent, CPU doublé tous les ans. On essaye de s'y tenir. Stockage: selon les service, croissance entre 50 et 100% par an (sur bande le plus rapide en croissance). Nous: pas tellement qté de stockage, mais surtout la possibilité d'accès multiples avec un bonne bande passante. Nos systèmes sont fiables. Mais on peut changer si meilleur rapport qté/prix avec d'autres systèmes. Tant pas la demande de la bio-informatique que de l'astro des particules, la demande est forte pour du calcul parallèle (-> passage à un « vrai » cluster). Notre scheduler (BQS) est en cours de test pour cela, reste à valider les expériences). + passage à terme en gigabit sur les workers (entre autre à cause du //) + demande forte d'interactif (retour rapide sur le batch). Possibilité de haute priorité, et accès à plusieurs machines (//). Forte réactivité. Notre but : pas de moyens dédiés (meilleur taux d'utilisation moyen des machines).