Nouvelles du CC-IN2P3 Réunion des sites-LCG France 22 novembre 2010 Dominique Boutigny.

Slides:



Advertisements
Présentations similaires
Processus dallocations 2009/2010 Mémo pédagogique pour fournisseurs ayant des Droits à Stockage (Fourni à titre dinformation non engageante - Seul le règlement.
Advertisements

Projet de Virtualisation dans le cadre d’un PCA/PRA
Copyright 2008 © Consortium ESUP-Portail ESUP-Days 7, Paris, 3 février 2009 La démarche projet Pascal Aubry.
6/7 octobre e Congrès UNCCAS Démarche de mise en place dun dispositif dévaluation dans le réseau national des PIMMS Gilles Reydellet, directeur.
1 MONDER2006 – 11/01/ Etudes de sensibilité pour la prospective électrique française à laide du modèle MARKAL Edi Assoumou.
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Réunion de lancement de Projet
SCD Lyon 21 Une migration en libre Choix politique : jouer le jeu du libre Choix stratégique : être maître de notre travail et sapproprier loutil Choix.
Soutenance du rapport de stage
Maîtrise des données et des métadonnées de l’ODS
Bases et Principes de la Virtualisation. Votre infrastructure informatique ressemble-t-elle à cela ? 2.
Validation de logiciel
Caen-Métropole Viacités Conseil général du Calvados EMD du Calvados.
Expérience professionnelle Formations et diplômes
Copyright © 2012.Orditech Sa. Tous droits réservés. 1 Titre du cours - Pied de page Présentation dun cas concret VMWare /NetApp.
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
Serveurs Partagés Oracle
Les bons de formation Software Assurance
SOCIETE SG1 Project Manager
2 février 2011 Julie COURPRON Responsable Département Performance
Migration ST RAPIER vers MP5 Activité Support Informatique
A.T. n°5 – Réalisation enceintes à vide de rechange CERN CSP n°4 du 25 novembre ACCORD TECHNIQUE N° 5 IPN ORSAY - IN2P3 FABRICATION DENCEINTES A.
Journées Informatiques de l’IN2P3 et de l’Irfu
Le CC-IN2P3 Fonctionnement – Évolution - Extension Réunion LCG-France - Annecy Lundi 18 mai 2009 Dominique Boutigny.
Mise en oeuvre et exploitation
Planification budgétaire Tier-2s Tier-3s Fairouz Malek, Fabio Hernandez, Frédérique Chollet Comité de direction 7 juillet 2008.
Optimisation des performances énergétiques d'une salle machine L'exemple du CC-IN2P3 18 mai 2010 Dominique Boutigny JI 2010.
Stratégie d’entreprise - Alstom Transport – Marco Férrogalini
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
PLAN I. Problématique A. Les besoins L’entreprise La productivité B. Enjeux économiques et techniques Redondance Éventuelle migration II. Solutions proposées.
Les métiers de l’informatique
08/04/2015 Unité EDUTER-CNERTA De nouveaux outils au service de l’Enseignement Agricole.
Les prestations informatiques
10/04/2017 T A I.
StorageAcademy 21 juin 2007 StorageAcademy ® 1 StorageAcademy ITIFORUMS, 21 juin 2007 La conduite des projets d’archivage numérique Méthodes pour réussir.
1© Copyright 2013 EMC Corporation. Tous droits réservés. EMC et Microsoft SharePoint Server Pour une collaboration avancée Nom Titre Date.
Offre DataCenter & Virtualisation Laurent Bonnet, Architecte Systèmes Alain Le Hegarat, Responsable Marketing 24 Novembre 2009.
CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
Infrastructure haute disponibilité pour services informatiques JI2014
E2CTF #1 – Support et développement 17 septembre 2008 Composition Eric Van Uytvinck –Migration Euclid vers CATIA (y compris minutes GMEC), Migration CATIA-dfs.
LCG-France: Tier-1 au CC-IN2P3 Bilan 2005 et perspectives 2006 Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
8 sept 2006Thomas Kachelhoffer - CC1 -Recommandation du dernier COS: information des utilisateurs des ressources du CC sur les travaux. -Premier courrier.
Clustering. Le Clustering est une technique qui consiste à assembler virtuellement plusieurs machines afin de les faire travailler en parallèle. Cela.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
Sites Pilotes Généralisation
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
1 Le groupe exploitation informatique au LAL Réalisations 2010 et projets 2011 Infrastructures de la Salle Machines Grille Services centraux et réseau.
DINQ/DSIN/INSI/ETSO/APGI
LHCb DC06 status report (LHCb Week, 13/09/06) concernant le CC : –Site currently fine / stable 3% of simulatated events 30% of reconstructed events –Site.
INFORSERVICE – DES PRESTATIONS PERSONNALISEES
1 Academie OCS 2007 R2 – Partie 1 Damien Caro Architecte Infrastructure Microsoft France
GRIF Status Michel Jouvin LAL/Orsay
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
BILAN FORÊT ACTIVE DIRECTORY IN2P3 JI08 – Octobre 2008 Cédric MULLER.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
1 Expérience MSFG « Montpellier Sud de France Grille» Journées «Grilles France» IPNL, octobre 2009.
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
Opérations France-Grilles : Etat des lieux Hélène Cordier/Gilles Mathieu LCG France, 30 Mai 2011.
Mathieu Walter 9 ème Journées Info de l'IN2P3/IRFU Cellule IAO/CAO 14 Octobre 2014.
Retour d'expérience sur le déploiement d'un site grille de production Pierre Girard EGEE/LCG ROC Deputy EGEE/LCG RC coordinator Centre de Calcul de l’IN2P3.
Gestion Electronique des Documents pour l’IN2P3 COMUTI 06 juin 2014.
Pierre Girard LCG France 2011 Strasbourg, May 30th-31th, 2010 Activité et nouvelles du CCIN2P3 Tier-1.
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
Page 1 Département Office Département des constructions et des technologies de l'information Département de l'instruction publique SIEF MEMO.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
08/02/2007 Site Grille : Ambitions 2007 Pierre Girard LCG-France Tier
Le Centre de Calcul de l'IN2P3 7 septembre 2010 Dominique Boutigny Un instrument informatique de pointe au service de la recherche Rencontre avec Oracle.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
Transcription de la présentation:

Nouvelles du CC-IN2P3 Réunion des sites-LCG France 22 novembre 2010 Dominique Boutigny

Chaises musicales… Directeur adjoint: Pierre-Étienne Macchi Responsable Pierre Girard Arrivée de Christèle Éloto: déploiement du middleware aux côtés de Jacques Garnier Responsable de l’équipe développement: Jean-René Rouet Responsable : Rolf Rumler Responsable Hélène Cordier 22 novembre 2010

Budget 2010 / Hardware 22 novembre 2010 Budget en forte baisse CNRS Hors LCG4 223 k€ CEA Hors LCG682 k€ CNRS LCG2 000 k€ CEA LCG682 k€ T2/T3 : 377 k€ 1.55 Po – SUN X Po – DELL R MD probablement ~1-2 Po – DELL R MD serveurs DELL C6100: 23 kSI2k 0.5 € / Go 0.3 € / Go Serveurs 2U – 4 mini cartes mères / serveurs – 2 x 6 cores HT  24 threads / machine 3 Go / Thread Serveurs 2U – 4 mini cartes mères / serveurs – 2 x 6 cores HT  24 threads / machine 3 Go / Thread

Nouveau système de batch 22 novembre 2010 Après des années de développement BQS est un produit parfaitement fonctionnel, stable et mature Pourquoi changer ?  Le CC-IN2P3 est le seul site utilisant BQS  D’autres produits existent et BQS peu ou plus de valeur ajoutée  Les nouveaux besoins de la physique HEP nécessiteront des développements ±importants : Machines virtuelles – Réservation de workers complet pour exploiter les architectures multicœurs / multithreads – futurs intergiciels / CE etc.

Nouveau système de batch 22 novembre : Décision de changer 2010: Comparaison détaillée des systèmes disponible puis choix 2011: Mise en production 2009: Décision de changer 2010: Comparaison détaillée des systèmes disponible puis choix 2011: Mise en production LSF et GE assez nettement devant les autres  choix de GE  Compréhension du système par les administrateurs GE et premiers rendus internes (sessions techniques, tutorials)  Détermination de la configuration GE [clusters, users, groups/VO, fairShare, etc...)  Configuration matérielle (master/Shadow[clone-master], SGBD, FS interne, hardware)  Installation d'un cluster pré-prod (Phase Interne) : 1/2 Rack  Validation des procédures d'installation (Système et Workers)  Etude des use-cases d‘exploitation (solutions, adaptations)  Préparation de Documentations Utilisateurs [aide à la Migration et doc d'utilisation du produit

Nouveau système de batch 22 novembre 2010 Difficultés liées au rachat de SUN par Oracle  Coût prohibitif des licences (mais LSF à peine moins cher)  Négociation en cours avec Oracle qui devrait déboucher bientôt Calendrier indicatif :  Fin Novembre : Ouverture du cluster à des cobayes 2 au départ puis élargissement progressif  Janvier 2011 : Ouverture aux utilisateurs du Cluster en pré-production  1er trimestre 2011 : Ouverture d'un cluster de production  1er semestre 2011 : Basculement progressif de BQS à GE (à priori du style migration: SL4  SL5)  ? 2011: Arrêt de BQS Calendrier indicatif :  Fin Novembre : Ouverture du cluster à des cobayes 2 au départ puis élargissement progressif  Janvier 2011 : Ouverture aux utilisateurs du Cluster en pré-production  1er trimestre 2011 : Ouverture d'un cluster de production  1er semestre 2011 : Basculement progressif de BQS à GE (à priori du style migration: SL4  SL5)  ? 2011: Arrêt de BQS  Souhait de créer et d’animer une communauté HEP (et autre) active

Infrastructure 22 novembre 2010

Infrastructure

Dimensionnement de la nouvelle salle 22 novembre 2010  ~40 groupes ayant des besoins "standards"  Respect des engagements par rapport au LHC  Prévision d'un upgrade du LHC  Prévision d'une augmentation importante des besoins des astroparticules  2011 – 50 racks et 600 kW  2015 – 125 racks et 1.5 MW  2019 – 216 racks et 3.2 MW

Le projet retenu – Cap Ingelec 22 novembre 2010

Groupes froids insonorisés sur la terrasse Pompes Poutres retroussées Liaison entre les deux salles + monte charge

Nouvelle salle informatique Le projet est dans les temps –Salle disponible dès février 2011 –Installation des racks refroidis + réseau –Familiarisation avec la nouvelle infrastructure Migration des workers de l’ancienne salle vers la nouvelle Rapatriement des workers délocalisés au CINES Ancienne salle  consacrée au stockage et au réseau dans un premier temps 22 novembre 2010

Difficultés du moment… Départ de 3 personnes du groupe support –LHCb – ATLAS - CMS –Si vous connaissez des personnes qui pourraient être intéressées, n’hésitez pas… Problème de stabilité –AFS  ATLAS et LHCb –SRM / dCache  ATLAS particulièrement impacté Architecture complexe et fragile Expériences certainement pas encore matures –Il faut trouver la bonne architecture –Nécessité de travailler en relation étroite avec les expériences et les développeurs (dCache notamment) 22 novembre 2010