Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.

Slides:



Advertisements
Présentations similaires
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
Advertisements

Grille Régionale Rhône-Alpes Institut des Grilles du CNRS Yonny CARDENAS CC-IN2P3 Réunion du groupe de travail grilles Projet CIRA Grenoble, le 2 Juin.
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
30/03/2017 Formation Plan 1.
Copyright © 2012.Orditech Sa. Tous droits réservés. 1 Titre du cours - Pied de page Présentation dun cas concret VMWare /NetApp.
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Réseaux LCG France Réunion LCG France 18 Mai 2009.
Service Informatique Bilan Tourniquet Section 01 10/12/12
Alice LCG Task Force Meeting 16 Oct 2008Alice LCG Task Force Meeting 16 Oct 2008 BARBET Jean-Michel - 1/20BARBET Jean-Michel - 1/20 LCGFR Marseille Juin.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Infrastructure haute disponibilité pour services informatiques JI2014
CAO et MUST pour la Mécanique et l’Electronique
CEA-DAPNIAPierrick Micout Réunion Tier 2 « Ile de France » 22 juin 2005.
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Le noeud de grille Tier 3 LAPP.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
Mise en place d’un VLAN grille
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
Michel Jouvin LAL/Orsay
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Yannick Patois _ Journée du Libre _ 1er Novembre n° 1 Datagrid Une grille de calcul sous Linux Yannick Patois.
EGEODE 08/11/2006 Équipe GRID1 EGEODE EGEODE. 08/11/2006 Équipe GRID2 Plan  La géophysique sur la Grille : EGEODE  Partenariat académique  Comment.
Journées Informatique de l'IN2P3 et du DAPNIA Perspective et évolution du CC-IN2P3 Relations avec les labos 21 septembre 2006 Dominique Boutigny.
Expérience du déploiement d’une Virtual Organisation (VO) locale Christophe DIARRA
Informatique Prospective. La qualité: HelpDesk au LAPP ou Pour un meilleur suivi des demandes au(x) support(s) Sylvain Garrigues.
Contrôle d'accès au réseau en utilisant NAP NAP = Network Access Protection Pôle Réseaux et Systèmes Windows - IGBMC Guillaume SEITH/Damien LEVEQUE.
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Session “Site Administrator” Pierre Girard.
Ordre du jour – Budget/ Evolution SAN/MUST – Stockage - demandes et discussions – Informations Politique de changement des mots de passe Connexion sur.
1 Expérience MSFG « Montpellier Sud de France Grille» Journées «Grilles France» IPNL, octobre 2009.
PUGNERE Denis Institut de Physique Nucléaire de Lyon Rencontres LCG-France mai 2013 – LLR Palaiseau.
Développement des templates Quattor de gLite à EMI Guillaume PHILIPPON.
Migration du système de sauvegarde d’une infrastructure locale à un système centralisé IN2P3 101/06/2016 HEPIX Spring 2013 Muriel Gougerot (LAPP) and Remi.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
Bilans et évolutions Actions Plan Bilans et évolutions : – Réseaux : liaisons extérieures, VPN, sans-fil – Vidéoconférence – Bilans du parc et des.
Catalogues de fichiers de données. David Bouvet2 Problématique Possibilité de répliquer les fichiers sur divers SE  nécessité d’un catalogue de fichiers.
LPSC, journée de lancement TIDRA B. Boutherin 1/12 Tier 3 du LPSC Grenoble Une infrastructure solide, originale et éco-responsable Des ressources importantes.
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
Sample Image Comment utiliser la grille ? 3ème rencontre EGEODE des utilisateurs de Geocluster et des Sciences de la Terre sur la grille EGEE à Villefranche-sur-Mer.
Retour d'expérience sur le déploiement d'un site grille de production Pierre Girard EGEE/LCG ROC Deputy EGEE/LCG RC coordinator Centre de Calcul de l’IN2P3.
Informations Comité des utilisateurs du mésocentre.
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
Supervision EC-Net AX Serveurs Web EC-BOS AX. ARCHITECTURE Les solutions EC-Net AX EC-Net AX Supervisor EC-Net AX EnerVue EC-Net AX Security  EC-Net.
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
INFSO-RI Enabling Grids for E-sciencE Sécurité sur la Grille C. Loomis (LAL-Orsay) Tutorial EGEE Utilisateur (LAL) 8 octobre 2007.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
12/11/20151J-P Meyer GRIF aujourd’hui et demain ( )
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
Mercredi 22 juin 2016 Suivi des jobs grille Colloque LCG France Mars 2007.
LCG France point Réseau Mai 2013.
LCG Le T2 du LPC Pierre-Louis Reichstadt LPC Clermont-Ferrand.
EGEE induction course, 22/03/2005 INFSO-RI Enabling Grids for E-sciencE Infrastructure Overview Pierre Girard French ROC deputy.
PASCALE HENNION 21/6/2013 SALLE PLATEAU état des lieux.
Colloque LCG France14-15 mars SURVEILLANCE ET GESTION D’INCIDENTS Cécile Barbier (LAPP)
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
Hadoop distributions Hadoop Hadoop est un framework Java libre destiné à faciliter la création d'applications distribuées.
EGEE France, Marseille, 24 mars 2005 INFSO-RI Enabling Grids for E-sciencE Activité SA1 Regional Operations Centre Pierre Girard.
1DSM - IRFU / PM Compte rendu du site GRIF.
Eric Fede : Obernai Intégration des services grille dans l'exploitation des systèmes informatiques du laboratoire.
08/02/2007 Site Grille : Ambitions 2007 Pierre Girard LCG-France Tier
Le Centre de Calcul de l'IN2P3 7 septembre 2010 Dominique Boutigny Un instrument informatique de pointe au service de la recherche Rencontre avec Oracle.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
CREAM & ICE Réunion SA1-France 11 mars 2008
Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
Michel Jouvin LAL/Orsay
Transcription de la présentation:

Tier 2 au LAPP

Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion

Historique Avant 2005 – Participation du laboratoire à Datagrid, EGEE, LCG. – Fourniture du service d’ordonnancement RB pour diverses VO. Printemps 2005 – Volonté de monter un nœud de grille de type Tier3 au LAPP. – Volonté de l’Université de Savoie de fournir à ses laboratoires une facilité de calcul performante. Réponse à l’appel d’offre ministériel de mésocentre. – Projet MUST : méso‐centre 1 de calcul et de stockage ouvert sur la grille. Début 2008 passage en Tier2 en gardant une composante Tier3.

Objectifs Triple – Fournir du calcul et du stockage pour les laboratoires de l’université : LAPTH,LAMA, LGIT/LGCA, EDYTEM, IMEPLAHC, LMOPS,… – Fournir du calcul et du stockage au LAPP (toutes expériences et tous services). – Fournir des services, du calcul et du stockage comme nœud de grille. EGEE/LCG. Tier 2 : ATLAS, LHCb. Tier 3 : ATLAS, LHCb. EGEE : Disciplines diverses (HEP, Astro, Esr,….).

Infrastructure Salle informatique ~60m2. – Attentif à la densité des équipements. Onduleur limité. – Attentif à la consommation des équipements. Climatisation redondante. Electricité à la charge du laboratoire. – Attentif à la consommation des équipements. L’ensemble des serveurs de MUST sont installés/managés par Quattor.

Infrastructure Réseau Stack de 2*16Gb/s constitué de Cisco 3750(E) pour les équipements de MUST. Un liaison vers le réseau régional Amplivia à 1Gb/s partagé. – La connexion sur Renater étant faite à Grenoble. – Qualité de service et débit sur Amplivia sont notre gros point NOIR. Engendre la majeure partie de notre indisponibilité. Réseau privé Gb/s – IPMI, MPI, Monitoring,…. VLAN.

Infrastructure stockage SAN (DS4500) : ~20 To – File système partagé GPFS Zone propre au labo et à l’université. Zone software de grille. Les espace de stockage SE de quelques VO (ops, dteam, esr,…). Les HOME de grille, des utilisateurs universitaires, pour permettre les jobs MPI. Des zones partagées diverses, notamment communes aux WN et au cluster interactif du laboratoire. – Backup de certaines zones sur bande Zone de backup des log files des services de grille. Des backups des diverses bases de données.

Infrastructure stockage DAS : 70 To – Simple serveur avec des baies SAS attachées formant des cellules. – Aujourd’hui 5 cellules: 2*12 disques en raid 6 par cellules => 14 To par cellule. 4 * 1Gb/s vers le stack de réseau par cellule. – Sert la VO ATLAS

Infrastructure calcul 80 Serveurs Blade HP – 512 cores pour un total de 1133 kSi2K – 2 Interfaces Gb/s 1ere directement dans le stack : data 2ème sur le réseau privé Gb/s : MPI, monitoring – Utilise les infrastructures blade center pour tous les aspects management hardware, surveillance consommation, mise à jour,…

Status Services de grille (quelques machines 1U/2U) – Ordonnancement :2 WMS + LB Atlas, LHCb, Biomed, Egeode, CTA,… LAPP, IPNL, LPSC, IPHC,…. VO régionale Rhone-Alpes – TopBDII – UI pour le LAPP à travers le cluster interactif du laboratoire (9 machines 8 cores). – SE:DPM : atlas, dteam, ops, lhcb,vo.lapp.in2p3.fr,esr,vo.cta.in2p3.fr,vo.rhone- alpes.idgrilles.fr, vo.formation.idgrilles.fr – CE: TORQUE/MAUI:: atlas,dteam,lhcb,ops,esr,geant4,vo.lapp.in2p3.fr,vo.cta.in2p3.fr,vo.rhone-alpes.idgrilles.fr,vo.formation.idgrilles.fr – MyProxy, Monbox. – Portail de soumission pour université de Savoie (UI).

Métrique Sur une année, hors VO dteam et ops

Métrique Composante Tier2 Production LHCb du 12/04/09 – 12/05/09 Production ATLAS du 12/04/09 – 12/05/09

Evolution Composante Tier2

Evolution Infrastructure de grille au 10Gb/s – En phase d’aquisition d’une infrastructure réseau pour la grille en 10Gb/s. – Les commandes en cours et à venir, sont définies avec des interfaces 10Gb/s. Serveurs de disques. Serveurs avec des liens Gb/s agrégés en lien 10Gb/s vers le cœur de réseau grille et cela en respectant un upload de 1 pour 1. Horizon 2013 – Nouveau bâtiment avec un salle informatique de 200 m2

Conclusion 3 Familles d’utilisateurs – Grille, LAPP, Universitaires Des services de grille – Locaux, régionaux, nationaux et plus Une puissance de calcul et stockage en tant que T2 pour Atlas et LHCb significative Une infrastructure reposant – GPFS – Quattor – Des solutions matérielles dense et robuste Intégration du nœud de grille au sein du service informatique du laboratoire. – Cluster interactif du laboratoire = UI de grille – Facilité de calcul du labo = nœud de grille Une absence totale de maitrise de notre connectivité vers l’extérieur

Questions

Accounting jobs exécutés sur un an

Disponibilité / Fiabilité Coupure réseau Coupure électrique (Morzine)+coupure réseau