Journées Informatiques de l’IN2P3 et de l’Irfu

Slides:



Advertisements
Présentations similaires
29/10/ Outil de Centralisation de données des Audits et de Planification des Investissements - France Domaine 29 Octobre2010.
Advertisements

Stockage et sauvegarde
Applications et Techniques
Résidences Universitaires Câblage informatique
Introduction 2002: document prospective des théoriciens des particules : évolution démographique alarmante Mise à jour, approfondissement de la réflexion,
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Grille Régionale Rhône-Alpes Institut des Grilles du CNRS Yonny CARDENAS CC-IN2P3 Réunion du groupe de travail grilles Projet CIRA Grenoble, le 2 Juin.
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
Système de stockage réseaux NAS - SAN
Bases et Principes de la Virtualisation. Votre infrastructure informatique ressemble-t-elle à cela ? 2.
Amélioration du SSE de la DSI/SSE MAEP. Problématique A tous les niveaux : –insuffisance de systématisation et de moyens Niveau central : –Besoins dinformation.
1 TIC Optimiser les infrastructures Sidi Ould Ehmety 10 ans dInternet en Mauritanie 23 juillet 2008.
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
Amélioration de la sécurité des données à l'aide de SQL Server 2005
REUNION DES COORDINATEURS DE RESEAUX 29 JANVIER 2013 MEUDON.
Alain Romeyer - 15/06/20041 UMH Machines livrées le 08/04/2005 Configuration choisie (différente des autres sites) : 6 machines SUN Fire V20Z.
1 Le calcul et linformatique à lIN2P3 et au DAPNIA Prospectives, La colle sur Loup 2004 Contributions:B. Boutherin (sécurité), J. Delabrouille (Astro-particules),
La Grille de Calcul du LHC
Protéger Exchange avec System Center Data Protection Manager 2007
Référence PRE.022.AtelierTechAMUE_ ppt APOGEE SOA et Système d’information Atelier technique 10/02/2006.
DR R.Vezin Les systèmes électriques virtuels « Développer une approche locale et régionale des économies d’énergie, réseaux intelligents et autres solutions.
Un serveur de données au format ROOT.
Le CC-IN2P3 Fonctionnement – Évolution - Extension Réunion LCG-France - Annecy Lundi 18 mai 2009 Dominique Boutigny.
Vmware au CC-IN2P3 Déploiement rapide d’une infrastructure destinée à de la formation et réflexions sur vSphere.
Planification budgétaire Tier-2s Tier-3s Fairouz Malek, Fabio Hernandez, Frédérique Chollet Comité de direction 7 juillet 2008.
Optimisation des performances énergétiques d'une salle machine L'exemple du CC-IN2P3 18 mai 2010 Dominique Boutigny JI 2010.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Le monitoring réseau dans EGEE Guillaume.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Nouvelles du CC-IN2P3 Réunion des sites-LCG France 22 novembre 2010 Dominique Boutigny.
Réseaux LCG France Réunion LCG France 18 Mai 2009.
Services de production grille en France Gilles Mathieu IN2P3-CC France Grilles Frédérique Chollet IN2P3-LAPP LCG France Rencontres France Grilles et LCG-France,
INFORMATISATION DU PATRIMOINE IMMMOBILIER DU CNRS
Centre de Calcul de l'IN2P3 - Lyon Toulouse - Lyon, 21 décembre 2004 Les projets de grille au Centre de Calcul de l’IN2P3.
SI Recherche « Offre de services aux unités » Octobre 2013.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
8 sept 2006Thomas Kachelhoffer - CC1 -Recommandation du dernier COS: information des utilisateurs des ressources du CC sur les travaux. -Premier courrier.
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Le noeud de grille Tier 3 LAPP.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
1 Le groupe exploitation informatique au LAL Réalisations 2010 et projets 2011 Infrastructures de la Salle Machines Grille Services centraux et réseau.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
9ème Forum Utilisateurs CATIA CERN Retour d‘expérience IN2P3 08 novembre 2011V. Boninchi1.
TOUT SAVOIR SUR L’OFFRE INFORMATIQUE NOTRE PARTENAIRE : DELL.
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
BILAN FORÊT ACTIVE DIRECTORY IN2P3 JI08 – Octobre 2008 Cédric MULLER.
PetaSky: Expérimentations avec HadoopDB et Hive 1 Amin Mesmoudi.
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Migration du système de sauvegarde d’une infrastructure locale à un système centralisé IN2P3 101/06/2016 HEPIX Spring 2013 Muriel Gougerot (LAPP) and Remi.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
6-7 Octobre 2008J-P MEYER1 Conclusions du groupe de travail thématique 7 Physique subatomique: - physique des particules, - physique nucléaire, - astroparticules.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
Réunion des sites LCG France- Marseille juin ACTIVITES DU GROUPE ACCOUNTING FRANCE GRILLES Cécile Barbier (LAPP)
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
Stratégie technique G. Mathieu – V. Breton. Stratégie vers les fournisseurs de services et de ressources France Grilles2 Jouer le rôle central dans le.
Le Centre de Calcul de l'IN2P3 7 septembre 2010 Dominique Boutigny Un instrument informatique de pointe au service de la recherche Rencontre avec Oracle.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Transcription de la présentation:

Journées Informatiques de l’IN2P3 et de l’Irfu 06/04/2017 Jeudi 2 octobre 2008 Évolution du CC-IN2P3 Journées Informatiques de l’IN2P3 et de l’Irfu

CPU Top 500 Ferme de calcul: 06/04/2017 CPU Top 500 Ferme de calcul: 265 IBM dual CPU – dual core Operon -1.2 MSpecHEP 479 DELL dual CPU / quad core INTEL 5345 @ 2.33 GHz – 6.3 MSpecHEP 401 DELL dual CPU / quad core INTEL 5450 @ 3.0 GHz – 6.5 MSpecHEP Total power available: ~14 MSpecHEP 8100 cores Durée de vie des workers < 3 ans Le système de batch BQS passe à l’échelle sans problème Jeudi 2 octobre 2008

Problèmes électriques et travaux d’infrastructure 06/04/2017 CPU (2) Disponibilité de la ferme: 2007: 83.9 % 2008: 93.1 % Problèmes électriques et travaux d’infrastructure { 2006: 82% 2007: 66% 2008: 61% Coexistence de 3 OS: SL3 – SL4 32 bits – SL4 64 bits CPU consommé CPU disponible Augmentation impressionnante de la puissance CPU dans un laps de temps très court Les expériences LHC n’étaient pas complètement prêtes à l’utiliser Stockage / I/O / Réseau / Software / Transfert de données… doivent être parfaitement au point et parfaitement équilibrés pour utiliser efficacement le CPU Jeudi 2 octobre 2008

06/04/2017 Jeudi 2 octobre 2008

Les expériences non-LHC bénéficient aussi de l’augmentation de puissance CPU 06/04/2017 D0 BaBar Jeudi 2 octobre 2008

06/04/2017 LHC / Total Jeudi 2 octobre 2008

Utilisation de la Grille 06/04/2017 Utilisation de la Grille Jeudi 2 octobre 2008

Stockage 4 systèmes principaux: 06/04/2017 Stockage 4 systèmes principaux: IBM DS8300: 250 TBytes – Système SAN haute performance / haute disponibilité : AFS + beaucoup d’autres services SUN X4500 (Thumpers) : 2.3 Po – DAS: dcache, xrootd + 3.2 Po livrés il y a 2 semaines IBM / DDN DCS9550 640 Tbytes : GPFS 480 Tbytes : Cache HPSS PILLAR Axiom: 42 Tbyte – Base Oracle pour OPERA © CC-IN2P3 / CNRS / f. de Stefanis Jeudi 2 octobre 2008

Protocoles supportés +AFS pour les homes et les softs des expériences 06/04/2017 Protocoles supportés dcache: A destination des SE - EGEE LHC : (1053 TB) ILC: 20 TB PHENIX: 28 TB - VIRGO: 2 TB – Latice QCD: 2 TB – Biomed: 2 TB xrootd: Total: 347 TB partagés entre BaBar – D0 – INDRA – ANTARES SRB: The Storage Resource Broker Total 146 TB partagés entre BaBar – Auger – plusieurs groupes de biologie GPFS Espace utilisateur orienté analyse Total 280 TB utilisés par toutes les expériences Principaux utilisateurs: Supernovae, Planck, Auger, BaBar, HESS, PHENIX, COMPASS, D0 and INTEGRAL +AFS pour les homes et les softs des expériences Jeudi 2 octobre 2008

06/04/2017 Stockage Situation en juin 2008 Jeudi 2 octobre 2008

Stockage de masse T10000B  1 To 06/04/2017 Stockage de masse 2 bibliothèques robotisées SL8500 installées 1 autre à la fin de l’année Essentiellement T10000 + LTO4 T10000B  1 To © CC-IN2P3 / CNRS / f. de Stefanis © CC-IN2P3 / CNRS / f. de Stefanis Jeudi 2 octobre 2008

Évolution du réseau interne (1) > 800 k€ d’investissement en 2008 100Mb/s Internal Services External Services 1Gb/s CISCO 6500 RENATER 10Gb/s 4x 10Gb/s 10Gb/s © Jérome Bernier Jeudi 2 octobre 2008 12

Évolution du réseau interne (2) 06/04/2017 Évolution du réseau interne (2) Stockage CPU Worker nodes connectés en Gbit ethernet 10Gb/s 10Gb/s Jeudi 2 octobre 2008

Limite de disjonction du CC 06/04/2017 Puissance électrique Limite de disjonction du CC Marge de sécurité (200 kW) Jeudi 2 octobre 2008

Infrastructure du CC-IN2P3 06/04/2017 Infrastructure du CC-IN2P3 Nous utilisons maintenant 1.5 MW de puissance électrique Installation d’un transfo de chantier Location d’un groupe froid  Passage de l’été 2009: Pérennisation de ces solutions provisoires Test de racks refroidis à l’eau (appel d’offre lancé) Hébergement de workers à l’extérieur du CC (CINES + ????) La solution: nouveau bâtiment "La" solution mais retard de plus d’un an en raison des difficultés pour obtenir le terrain Situation réellement très difficile Jeudi 2 octobre 2008

Développements Suite à une réorganisation interne: 06/04/2017 Développements Suite à une réorganisation interne: Création d’une équipe de développement (13 personnes) Développement liés à la Grille (CIC Portal par exemple) Outil d’interopérabilité JSAGA (cf talk de Sylvain Reynaud) Système de batch BQS Système d’Information du CC …  Au passage on notera la fusion de l’équipe grille dans les autres équipes: Opération – Infrastructure – Développement Jeudi 2 octobre 2008

Ce développement est une priorité forte du CC-IN2P3 06/04/2017 Plateforme d’analyse Historiquement le CC-IN2P3 a fortement développé la capacité et la fiabilité de sa plateforme de production L’analyse des données du LHC va être un enjeu critique pour les équipes IN2P3 / Irfu Réflexion en cours pour mettre en place une plateforme d’analyse performante Filtrage rapide des données Analyse interactive Contrainte de ne pas interférer avec la production Ce développement est une priorité forte du CC-IN2P3 Jeudi 2 octobre 2008

06/04/2017 Ouverture du CC Le CC consacre une (petite) partie de ses ressources pour des activités d’ouverture en dehors de la physique corpusculaire Stratégie d’ouverture Université Région Grands projets nationaux où le CC peut avoir un impact fort Asie - en liaison avec les Laboratoire Internationaux Associés (Chine, Japon, Corée, Vietnam)  Création d’une grille régionale Historiquement rôle important dans le domaine de la bio Récemment: TGE ADONIS – Archivage pérenne des données SHS Mise en place et tests d’une plateforme Fedora Jeudi 2 octobre 2008

Recherche en informatique 06/04/2017 Recherche en informatique Un CR1 recruté par la section 07 du Comité National et affecté au CC-IN2P3  Frédéric Suter Pont entre les grilles de recherches et les grilles de production Collaboration avec le LIP A terme on vise une équipe de recherche de 3 à 5 personnes Jeudi 2 octobre 2008

06/04/2017 Mutualisation L’une des missions de base du CC-IN2P3 est de fournir des moyens informatiques mutualisés pour la communauté IN2P3 / Irfu Négociation de l’achat de licences GPFS (licences + maintenance) NI LabView (licences) AXALANT (EDMS) (licences) Mise à disposition de logiciels Compilateurs, Matlab, etc… CADENCE Outils collaboratifs: Indico ….. Jeudi 2 octobre 2008

Ce système est bien sûr généralisable à d’autres labos 06/04/2017 Backup Déploiement d’un backup centralisé pour les labos qui le souhaitent Actuellement 7 labos utilisent ce backup centralisé CENBG – CSNSM – IPHC – IPNL – IPNO – LPCC – LPSC ~100 millions de fichiers – 47 To De 60 à 150 Go transférés au CC chaque jour Ce système est bien sûr généralisable à d’autres labos Jeudi 2 octobre 2008

06/04/2017 Conclusion La mission première du CC-IN2P3 est de servir les groupes de recherche de l’IN2P3 et de l’Irfu Très forte priorité sur le LHC : ~80% des ressources … mais: ressources importantes et garanties pour les autres projets Ouverture "contrôlée" du CC-IN2P3  Grille régionale Rhône-Alpes Ambition de devenir l’opérateur de la future grille nationale de production La mutualisation des ressources et de certains services au niveau de l’IN2P3 / Irfu est une nécessité Jeudi 2 octobre 2008