Le Tier2 de Subatech Logiciel : Jean-Michel Barbet

Slides:



Advertisements
Présentations similaires
Offre THD3 Global.
Advertisements

La haute disponibilité
Récupération de Données
Projet SME Services et Salles Informatiques
Technical support where and when needed. TechSwap sa est une société de services. Notre équipe de 22 techniciens est spécialisée en déménagements de matériel.
Alain Romeyer - 15/06/20041 UMH Machines livrées le 08/04/2005 Configuration choisie (différente des autres sites) : 6 machines SUN Fire V20Z.
ST-TC, 17th Sept 2002 Renforcement des infrastructures techniques du Centre de Calcul en vue du LHC Phase II Anne Funken.
ST-TC, 17th Sept 2002 Renforcement des infrastructures techniques du Centre de Calcul en vue du LHC Phase I Rapport davancement Anne Funken.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks VO Fusion Pierrick Micout, CEA - DAPNIA.
Retour d’expérience sur des Télécommunications
DATA CENTER du Ministère de l’Economie et des Finances
Le CC-IN2P3 Fonctionnement – Évolution - Extension Réunion LCG-France - Annecy Lundi 18 mai 2009 Dominique Boutigny.
Planification budgétaire Tier-2s Tier-3s Fairouz Malek, Fabio Hernandez, Frédérique Chollet Comité de direction 7 juillet 2008.
Optimisation des performances énergétiques d'une salle machine L'exemple du CC-IN2P3 18 mai 2010 Dominique Boutigny JI 2010.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Plate-forme MIRAGE Méso-Informatique Répartie pour des Applications en Géophysique et Environnement.
Alice LCG Task Force Meeting 16 Oct 2008Alice LCG Task Force Meeting 16 Oct 2008 BARBET Jean-Michel - 1/20BARBET Jean-Michel - 1/20 LCGFR Marseille Juin.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
9-mai-2006 Eric Lancon 1 Tier-1 et Ferme d’Analyse à Lyon Tier-1 de Lyon  Processing et stockage des données réelles  Stockage des données de simulations.
Rôle de la commission informatique Faire un bilan de l’informatique Evaluer les besoins des utilisateurs Proposer ou valider des évolutions Canal de communication.
CEA-DAPNIAPierrick Micout Réunion Tier 2 « Ile de France » 22 juin 2005.
Frédérique Chollet Yannick Patois Réunion LCG-France, Nantes 19 septembre 2012 Résultats du questionnaire DPM.
LCG-France: Tier-1 au CC-IN2P3 Bilan 2005 et perspectives 2006 Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Le projet MUST Evolution de l’infrastructure de la salle informatique
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Le noeud de grille Tier 3 LAPP.
M.CHIUMENTO/Services Généraux/13/06/06 Centre de Calcul de Lyon Situation actuelle: Sept 2006 Raisons du Projet OPUS : une opération court terme, pour.
Comité scientifique GRIF, 19/01/ LPNHE Paris Projet GRIF au LPNHE Paris Le 2 février prochain il y aura une revue de projet au LPNHE. Le projet GRIF.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
Le tarif d’énergie.
Les informaticiens Des gens de l’ombre. Qu’est ce que l’informatique ? Du matériel Des logiciels Des Hommes.
Michel Jouvin LAL/Orsay
1 Le groupe exploitation informatique au LAL Réalisations 2010 et projets 2011 Infrastructures de la Salle Machines Grille Services centraux et réseau.
Solution Virtualisation Full 12Go Vous avez un projet de migration de serveurs physiques vers des machines virtuelles Cyceo Informatique vous propose une.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
TOUT SAVOIR SUR L’OFFRE INFORMATIQUE NOTRE PARTENAIRE : DELL.
GRIF Status Michel Jouvin LAL/Orsay
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
Expérience du déploiement d’une Virtual Organisation (VO) locale Christophe DIARRA
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Frédérique Chollet Fairouz Malek Pierre Girard Yannick Patois Réunion LCG-France, Lyon 1 er décembre 2010 Pour clore cette édition…
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
PUGNERE Denis Institut de Physique Nucléaire de Lyon Rencontres LCG-France mai 2013 – LLR Palaiseau.
Service Informatique Bernard Boutherin Tourniquet Section novembre 2014 Bilan Informatique Tourniquet Section 01 du LPSC, Nov 2014,
1.Rapide rappel de l’enquête 2.Quelques éléments chiffrés 3.Les préconisations et urgences 4.Et depuis décembre ? 5.Comment assurer un suivi par la suite.
Modèles de coût Vincent Breton LPC- IdGC Crédit: O. Guinaldo, A. Guitton, A. Mahul.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
LPSC, journée de lancement TIDRA B. Boutherin 1/12 Tier 3 du LPSC Grenoble Une infrastructure solide, originale et éco-responsable Des ressources importantes.
1DSM - DAPNIA / MW0901 Lustre au DAPNIA. 2DSM - DAPNIA / MW0901 Machines utilisées –2 PC DELL de bureau optiplex GX280 : NODE08 : P4 à 3,2 Ghz – 2Mo de.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
Configuration des sites Intérêt de la mutualisation ! Existant avec Quattor Tendance Puppet Discussion.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
1 Le calcul LHC et son informatique à l’IN2P3 et au DAPNIA LCG-France Fairouz Malek.
12/11/20151J-P Meyer GRIF aujourd’hui et demain ( )
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
PASCALE HENNION 21/6/2013 SALLE PLATEAU état des lieux.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
1DSM - IRFU / PM Compte rendu du site GRIF.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Statut du T2 Île de France
Représentant technique Représentant scientifique
Michel Jouvin LAL/Orsay
LCG – France et ALICE Bilan 2006 Planning fevrier 2007
Transcription de la présentation:

Le Tier2 de Subatech Logiciel : Jean-Michel Barbet Matériel : Khalil Chawoshi Resp. Scientifique: Laurent Aphecetche ~ 1 equivalent temps plein

Objectif Mise en place d’une ressource de simulation et d’analyse Une seule expérience : ALICE Un seul site : SUBATECH Ferme actuelle déjà utilisée pour Data Challenges d’ALICE (fin 2004) Objectif annoncé en 2008 (dans le MoU LCG) 200 kSI2K 20 TB 15/12/2005

Objectif(s) et budget(s) Scenario MoU ~ 150 k€ Scenario opt ~ 500 k€ Scenario opt ~ 300 k€ La réalité sera sans doute entre les 2… 15/12/2005

Calcul des coûts… Rapport CPU/disque incorrect pour ALICE (devrait être 4) 15/12/2005

Status : matériel CPU : 40 Worker nodes (= l’ensemble de la ferme Subatech, pas tout pour LCG ;-) ) 20 x (Dell, PIV, 3.2 GHz, 2GB RAM) 20 x (Dell, PIV, 3.0 GHz, 1GB RAM) Répartition de ces 40 entre LCG et local : à voir à l’usage. Réseau 1 Gb/s (*) Disque 0,5 TB pour l’instant Serveur 5.6 TB devrait arriver semaine prochaine 4U, 2xAMD 246 2GHz, 4GB RAM 2x80 GB SATA RAID 1 (system) 16x400 GB SATA RAID 5 (capa brute 6TB) RHEL ES 15/12/2005

Notre salle machine Salle informatique dédiée, neuve (Sept. 2005). Faux plancher (>1t/m2) Surface = 60 m2 Puissance électrique = 50KW Onduleur = 60KVA et 20 min d'autonomie à pleine charge Climatisation = 25 KW frigorifiques 15/12/2005

Status : logiciel LCG 2.6 installé CE ok SE ok (classic) pour le moment dpm à suivre quand serveur disque installé Pas encore certifié (manque RB de test pour que SFTs soient ok) AliEn+VO Box ALICE : pas encore ok 15/12/2005

Evolution 2006 CPU Pas encore clair si nécessaire en 2006 Mise à jour des 20 WN anciens en 2GB RAM. Baie de disque ~O(10TB) (déployée sur SAN) début année Quelques fournisseurs déjà contactés (SGI,IBM,Hitachi) pour se faire une idée du marché Retours d’expériences des autres T2(T1) seraient les bienvenus pour conseil(s) Utilisation d’AliEn Test de PROOF ? 15/12/2005

Questions ?