Le CC-IN2P3 Fonctionnement – Évolution - Extension Réunion LCG-France - Annecy Lundi 18 mai 2009 Dominique Boutigny.

Slides:



Advertisements
Présentations similaires
[ Et si le CO2 remplaçait l’eau dans les réseaux thermiques?]
Advertisements

L’énergie Eolienne - Généralités
29/10/ Outil de Centralisation de données des Audits et de Planification des Investissements - France Domaine 29 Octobre2010.
Offre THD3 Global.
Enseignements de la première étude française sur l'impact environnemental des TIC Contribution des opérateurs télécoms à une croissance durable : exemples.
Architecture des ordinateurs
Introduction aux réseaux informatiques
Avancement des projets ESIMCETI et CETI
PRODUCTION TRANSPORT LIVRAISON DE L’ENERGIE ELECTRIQUE
Page : 1 / 8 Conduite de projet Examen du 3 juin 1988 Durée : 4 heures Le support de cours est toléré La notation tiendra compte très significativement.
Page : 1 / 6 Conduite de projet Examen du 6 mai 1999 Durée : 4 heures Le support de cours est toléré La notation tiendra compte très significativement.
Page : 1 / 5 Conduite de projet Examen du 22 mai 1997 Durée : 4 heures Le support de cours est toléré La notation tiendra compte très significativement.
L'énergie hydroélectrique.
La haute disponibilité
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
Soutenance du rapport de stage
Les Ateliers de Génie Logiciel
PAC HAUTE PERFORMANCES Sommaire
Présentation ROESER nombre de ménages: 22 somme des émissions de CO 2 : 366,902 kgCO 2 /an.
Système de stockage réseaux NAS - SAN
Bases et Principes de la Virtualisation. Votre infrastructure informatique ressemble-t-elle à cela ? 2.
RN004 Cor Cobaty 13 janvier 2009 Bâtiment + énergie: et dans 20 ans ? Charly Cornu Ingénieur mécanicien EPFL SIA.
CONFERENCE DERBI - CONFERENCE DERBI – Juin 2008.
Stratégie 2 : refroidissement d'eau par l’air extérieur, eau qui refroidira le bâtiment. Solution : L’eau de refroidissement doit pouvoir être refroidie.
Datacenter.
Climatisation Solaire
S.T.S. S.I.O. 1ère année La gestion de projets
Amélioration du SSE de la DSI/SSE MAEP. Problématique A tous les niveaux : –insuffisance de systématisation et de moyens Niveau central : –Besoins dinformation.
UVSQ Master CEDER UE 2 (2.1) Versailles, le 16 octobre 2007 LA MAÎTRISE DE LA DEMANDE DELECTRICITE Par Souleymane KOLOGO.
™.
La chaudière à condensation
Pole Services Urbains Direction des Etudes et Travaux de Bâtiment Service Génie climatique et Gestion de lEnergie Groupe scolaire Danube Groupe scolaire.
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
La responsabilité écologique, un projet d’entreprise !
Modules et Pétales pour les bouchons
ENERGIE ET LOGISTIQUE Bakery Products.
Bilan du Projet Industriel
Gestion des bases de données
Pompe à Chaleur (PAC).
ST-TC, 17th Sept 2002 Renforcement des infrastructures techniques du Centre de Calcul en vue du LHC Phase II Anne Funken.
Retours d’expériences: Quelles mesures pratiques en faveur de la maîtrise de l’énergie dans un établissement scolaire? Ville du Gosier Solange RANCE,
Une solution performante Conclusion
Unités de toîture - gamme Voyager
Architecture des ordinateurs, Environnement Numérique de Travail
DATA CENTER du Ministère de l’Economie et des Finances
1.
Journées Informatiques de l’IN2P3 et de l’Irfu
LES ENERGIES RENOUVELABLES EN COPROPRIETE
Optimisation des performances énergétiques d'une salle machine L'exemple du CC-IN2P3 18 mai 2010 Dominique Boutigny JI 2010.
Nouvelles du CC-IN2P3 Réunion des sites-LCG France 22 novembre 2010 Dominique Boutigny.
Réseaux LCG France Réunion LCG France 18 Mai 2009.
Procédé et dispositif de refroidissement d’un moteur de véhicule automobile Système de Refroidissement à Régulation Électronique S2RE L. Tomaselli Direction.
Offre DataCenter & Virtualisation Laurent Bonnet, Architecte Systèmes Alain Le Hegarat, Responsable Marketing 24 Novembre 2009.
Infrastructure haute disponibilité pour services informatiques JI2014
Le projet MUST Evolution de l’infrastructure de la salle informatique
8 sept 2006Thomas Kachelhoffer - CC1 -Recommandation du dernier COS: information des utilisateurs des ressources du CC sur les travaux. -Premier courrier.
M.CHIUMENTO/Services Généraux/13/06/06 Centre de Calcul de Lyon Situation actuelle: Sept 2006 Raisons du Projet OPUS : une opération court terme, pour.
1 Une ambition, un logement décent pour tous ! Programme PIVERT : type de travaux, qualité énergétique.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
DEMARRAGE PROJET TRAINING LAF Training LAF Objectif Appuyer les projets dans leur phase de démarrage dans les domaines administratifs et financiers.
Refroidissement IT Second Network Hub Prevessin ELTC + CV Technical Review P. Pepinster EN-CV EDMS XXXXXX.
Vécu dans un immeuble de bureaux PASSIF Aurélie PIETTE Energie & Habitat 28 novembre 2009.
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
8 avril 2005Comité lcg France1 Comité LCG France du 8 avril 2005 Philippe GAILLARDON Équipe stockage URL Marchés de stockage.
PASCALE HENNION 21/6/2013 SALLE PLATEAU état des lieux.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
Le Centre de Calcul de l'IN2P3 7 septembre 2010 Dominique Boutigny Un instrument informatique de pointe au service de la recherche Rencontre avec Oracle.
Transcription de la présentation:

Le CC-IN2P3 Fonctionnement – Évolution - Extension Réunion LCG-France - Annecy Lundi 18 mai 2009 Dominique Boutigny

Composition actuelle de la ferme de batch Lundi 18 mai 2009   479 DELL dual CPU / quad core INTEL 2.33 GHz – 6.3 MSpecInt2k  401 DELL dual CPU / quad core INTEL 3.0 GHz – 6.5 MSpecInt2k  412 IBM dual CPU / quad core INTEL GHz – 6.0 MSpecInt2k 85 kW Refroidissement par porte à eau 81 kW mesuré incluant l'échangeur thermique

Stockage disque Lundi 18 mai Sun / Thumper X4500 – 17 To utiles / machine  2.5 Po 160 Sun / Thor X4540 – 33 To utiles / machine  5.3 Po Total 7.8 Po de stockage DAS essentiellement pour dcache / xrootd IBM/DDN DCS To pour GPFS – 480 To pour le cache HPSS Environ disques ! Nous avons l'ensemble du stockage disque sur lequel nous nous sommes engagés pour 2009

Stockage sur cassettes Lundi 18 mai robots Sun / STK SL8500 d'une capacité de 3  cassettes © CC-IN2P3 / CNRS / f. de Stefanis La capacité théorique est de 30 Po mais:  1 robot plein de 9840 (20 Go)  1 robot plein de T10k-A (500 Go)  1 robot servant de trop-plein pour les T10k-A et normalement dédié au T10k-B (1 To) Les T10k-B ne seront disponibles qu'après la mise à jour HPSS Un 4 ème robot va être installé à la fin de l'année

Migration HPSS Lundi 18 mai 2009 La migration de HPSS 5.1 vers HPSS 6.2 est une opération majeure Elle va se dérouler début juin après une très grosse phase de préparation Avantages attendus:  Version supportée par IBM (la 5.1 n'est plus supportée)  Support des T10k-B  Utilisation d'une plateforme matérielle plus performante L'impact sur l'amélioration des performances devrait être déterminant

Évolution du réseau Lundi 18 mai 2009 Un effort important a été fait en 2008 pour renforcer l'infrastructure du réseau local  plus de 800 k€ investis en 2008 Tous les workers sont connectés en Gbit Les serveurs de données les plus sollicités sont connectés en 10 Gbits Les autres sont en N  1Gbit Les 3 gros switches de la salle machine sont interconnectés en 4  10 Gbits

Consommation électrique Lundi 18 mai 2009 Fit linéaire: +500W / jour En principe la limite de disjonction du CC est à 1550 kW Nous tenons grâce à un transformateur de chantier qui nous donne une marge de 400 kW (800 dans quelques semaines) En septembre nous remplaçons les transfos par 3 nouveaux de 3  1000 kVA ceci entrainera un arrêt important du CC – Nous essayons de trouver la solution qui impactera le moins possible les utilisateurs Chaque degré de température extérieure supplémentaire nous fait consommer 20 kW de plus

Refroidissement Lundi 18 mai 2009 Nous avons actuellement 2 groupes froids capable théoriquement de produire chacun 600 kW de froid Malheureusement l'efficacité des aéroréfrigérants (les gros ventilateurs sur la toiture) baisse lorsque la température extérieure augmente. Le week-end du 3 mai les groupes froids se sont coupés en cascade en raison de la trop forte pression du fréon dans le circuit de réfrigération (22 bars !) Un 3 ème groupe froid va être installé à la fin du mois il devrait nous permettre de passer l'été L'installation devrait se faire sans impact majeur sur les services grâce à la location d'un groupe froid et d'un groupe électrogène En attendant la puissance CPU disponible va rester autour de 60% afin de ne pas nous retrouver de nouveau en situation critique

Lundi 18 mai mai 2009 Investissement Transfos + Groupes Froids: 550 k€

Refroidissement (2) Lundi 18 mai 2009 Nous étudions aussi la possibilité d'installer des refroidisseur adiabatique (brumisateurs) sur les aéroréfrigérants Nous atteignons maintenant les limites ultimes des possibilités de la salle informatique actuelle Amélioration sensible des performances par temps chaud et sec Nous travaillons en parallèle sur l'instrumentation du système de climatisation afin de repérer les dérives de fonctionnement avant la panne ! Nous sommes malheureusement dans un contexte industriel où la notion de "slow control" est quasiment absente !  L'été 2010 va être très difficile…

La stratégie pour 2009 Lundi 18 mai 2009 Toute la stratégie d'acquisition de matériel au CC doit maintenant être dictée par le souci permanent d'optimiser la consommation électrique et le refroidissement  Installation de 5 racks au CINES dès que les performances en I/O avec la nouvelle liaison à 10 Gb/s seront validées (incertitude sur GPFS)  Remplacement de la ferme de 479 DELL PowerEdge 1950 (< 3 ans) par un système refroidi à eau Ce remplacement inclura l'acquisition d'un cluster parallèle InfiniBand (Pour Pistoo)  Acquisition de racks refroidis à eau pour intégrer le restant des DELL les plus récentes  Capotage et optimisation du refroidissement des Thors  Migration des Thumpers vers les Thors et élimination des Thumpers  Acquisition du matériel pour la ferme d'analyse en fonction du résultat de l'étude en cours (en utilisant le marché national DELL si possible)

La stratégie pour 2009 Lundi 18 mai 2009 Au niveau des services la stratégie est de renforcer les performances et la robustesse partout où c'est possible Migration HPSS Optimisation des débits Cassettes  Disques Renforcement d'AFS Mise en place de redondances sur les services critiques

La nouvelle salle informatique Lundi 18 mai 2009 Le projet avance bien et les blocages administratifs sont levés (toutefois, le terrain n'est toujours pas attribué officiellement au CNRS) Nous bénéficions de 900 k€ dans le cadre du plan de relance qui doivent impérativement être dépensés cette année Le programme est quasiment terminé et nous allons lancer une consultation en vue d'une procédure de conception-réalisation On vise une mise en service progressive de la nouvelle salle à partir du début Ce planning est tenable si toutes les opérations s'enchainent sans la moindre faille

Future salle informatique Lundi 18 mai 2009 Surface d'environ 900 m 2 sur 2 niveaux Le budget est très serré  le bâtiment sera extrêmement simple (type charpente métallique + bardage) Puissance électrique limitée au début (~500 kW pour l'informatique) mais infrastructure évolutive jusqu'à >3 MW pour l'informatique (5 MW total) en plus de la salle actuelle (total ~6.5 MW) Récupération des calories produites pour le chauffage de bâtiments universitaires

Refroidissement de la nouvelle salle Lundi 18 mai 2009 Travail d'investigation pour identifier les meilleures solutions de refroidissement Refroidissement à eau pour toute la nouvelle salle - A priori, confinement des allées chaudes 25 à 30 kW par rackA priori pas de faux plancher – Électricité, eau glacée et courants faibles arrivent par le haut