Le noeud de grille Tier 3 LAPP.

Slides:



Advertisements
Présentations similaires
Le stockage DAS,NAS,SAN.
Advertisements

Projet de Virtualisation dans le cadre d’un PCA/PRA
Introduction aux réseaux informatiques
Le serveur NAS Network Attached Storage, (NAS) désigne un périphérique de stockage relié à un réseau dont la principale fonction est le stockage de données.
Le Grid Computing Par Frédéric ARLHAC & Jérôme MATTERA.
La haute disponibilité
Système de stockage réseaux NAS - SAN
Un cloud sécurisé pour vos fichiers. problématiques majeures 2 Les documents en entreprise :
Vous imaginez.On vous accompagne.. Qualité clients en Europe dont en service Leadership 1,9 Mds euros de C.A. Pérennité 100% Société Générale.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Services de production grille en France Gilles Mathieu IN2P3-CC France Grilles Frédérique Chollet IN2P3-LAPP LCG France Rencontres France Grilles et LCG-France,
Centre de Calcul de l'IN2P3 - Lyon Toulouse - Lyon, 21 décembre 2004 Les projets de grille au Centre de Calcul de l’IN2P3.
Service Informatique Bilan Tourniquet Section 01 10/12/12
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
Infrastructure haute disponibilité pour services informatiques JI2014
Rôle de la commission informatique Faire un bilan de l’informatique Evaluer les besoins des utilisateurs Proposer ou valider des évolutions Canal de communication.
CAO et MUST pour la Mécanique et l’Electronique
Frédérique Chollet Yannick Patois Réunion LCG-France, Nantes 19 septembre 2012 Résultats du questionnaire DPM.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Le projet MUST Evolution de l’infrastructure de la salle informatique
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
L’environnement Labo : nom du labo (PP, PN, Astro éventuellement dans l’ordre d’importance) Effectif du labo : xxx personnes Nombre d’IT : xxx dont au.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
Projet de mémoire - IDPE 28 Janvier ESSI Pascal Kotté Update 1.2.
Compte rendu Journée JOSY
Comité scientifique GRIF, 19/01/ LPNHE Paris Projet GRIF au LPNHE Paris Le 2 février prochain il y aura une revue de projet au LPNHE. Le projet GRIF.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
Résumé du track “Computing Fabrics and Networking Technologies” CHEP 2010 Guillaume Cessieux – Équipe réseaux, CCIN2P
Support applicatif Tier-2 au LAPP Sabine Elles, Gaël Rospabé LCG France, Annecy
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
Introduction aux outils de supervision
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
VMware vSphere Hypervisor
EGEODE 08/11/2006 Équipe GRID1 EGEODE EGEODE. 08/11/2006 Équipe GRID2 Plan  La géophysique sur la Grille : EGEODE  Partenariat académique  Comment.
GRIF Status Michel Jouvin LAL/Orsay
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
Système local d’accounting de l’IPHC 31/05/2011 Eric Kieffer.
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
Ordre du jour – Budget/ Evolution SAN/MUST – Stockage - demandes et discussions – Informations Politique de changement des mots de passe Connexion sur.
I nformatisation et N umérisation des A rchives D épartementales des P yrénées A tlantiques Avant projet sommaire.
Bilan 2012, perspectives 2013 Conseil de Groupement – 21/2/2013 V. Breton La grandeur des actions humaines se mesure à l’inspiration qui les fait naître.
1 Expérience MSFG « Montpellier Sud de France Grille» Journées «Grilles France» IPNL, octobre 2009.
Modèles de coût Vincent Breton LPC- IdGC Crédit: O. Guinaldo, A. Guitton, A. Mahul.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
JI2006Muriel Gougerot - Nicole Iribarnes Virtualisation au LAPP.
Retour d'expérience sur le déploiement d'un site grille de production Pierre Girard EGEE/LCG ROC Deputy EGEE/LCG RC coordinator Centre de Calcul de l’IN2P3.
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
Grid au LAL Michel Jouvin LAL / IN2P3
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
Réunion des sites LCG France- Marseille juin ACTIVITES DU GROUPE ACCOUNTING FRANCE GRILLES Cécile Barbier (LAPP)
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
EGEE induction course, 22/03/2005 INFSO-RI Enabling Grids for E-sciencE Infrastructure Overview Pierre Girard French ROC deputy.
Communication LCG-France Colloque LCG France Mercredi 14 mars 2007.
Colloque LCG France14-15 mars SURVEILLANCE ET GESTION D’INCIDENTS Cécile Barbier (LAPP)
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
Stratégie technique G. Mathieu – V. Breton. Stratégie vers les fournisseurs de services et de ressources France Grilles2 Jouer le rôle central dans le.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
EGEE France, Marseille, 24 mars 2005 INFSO-RI Enabling Grids for E-sciencE Activité SA1 Regional Operations Centre Pierre Girard.
1DSM - IRFU / PM Compte rendu du site GRIF.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
L’exploitation des données du collisionneur LHC: un défi pour le calcul scientifique un enjeu pour le LAPP S. Jézéquel.
Transcription de la présentation:

Le noeud de grille Tier 3 LAPP

Objectifs du projet LAPP Garantir des ressources informatiques pour l’analyse des données aux physiciens du LAPP et aux physiciens étrangers qui viendront dans le cadre du centre international de rencontre LAPP-LAPTH (projet CREDO) Construire un nœud s’intégrant dans la grille de européenne EGEE (Enabling Grid for E-Science) qui englobe la grille du projet LHC: LCG (LHC Computing Grid)

L‘Architecture envisagée à l’horizon fin 2007

Les premiers choix technologiques (Matériel IBM/ Serviware)

Les avantages de l’Architecture Ouverture par rapport au middleware LCG Serveurs de fichiers RHEL3 capables de supporter si nécessaire DPM, etc… Sécurité des données Fiabilité des composants donc pérennité de la solution Protection des données par mécanisme avancé (parité) Redondance des composants (alimentations, ventilation, commutateurs réseaux et SAN, contrôleurs, etc…) Sauvegarde du tiers du volume Evolutivité de la solution Jusqu’à 40 To dans la même baie de stockage Evolutivité en performance si nécessaire (commutateurs SAN pour rajouter des serveurs, des lecteurs de sauvegarde, disques FibreChannel possibles, etc…) Facilité d’administration Outils centralisés d’administration Evolution des volumes pour chaque groupe de manière souple

Les services Grille Site IN2P3-LAPP Contact : support-grid@lapp.in2p3.fr Site GIIS : lappgrid05.in2p3.fr:2170 LCG-2.6.0 Services collectifs VOs supportées Biomed, Egeode, ATLAS,LHCb, DTeam AuverGrid RB lappgrid07.in2p3.fr lappgrid09.in2p3.fr PX +BDII lappgrid08.in2p3.fr lappgrid10.in2p3.fr Surveillance depuis le web Tests journaliers Monitoring RB JRA2 – 200 jobs/ jour en 2005 Etat des jobs (PHPMyAdmin, et scripts PHP pour interrogation base Mysql LB) Visualisation des logs Contribution EGEE SA1-fr : ½ FTE IR 2006 Renouvellement des serveurs Virtualisation des nœuds de grille VMware GSX (pas de support SMP) Evaluation nouveaux composants, nouvelles releases Bancs de test Partitionnement des serveurs Evolution vers Xen ?

par les expériences LAPP L‘utilisation par les expériences LAPP Expériences demandeuses: LHC : Ferme d’analyse complémentaire des grands centres de calcul ATLAS 2008 : 50 CPU, qq To LHCb 2008: 50 CPU, qq To Besoins: Ferme de stockage/calcul orientée analyse Rapatriement standardisé de données réduites des expériences Traitement local de ces données avec/sans soft expérience Stockage et partage des fichiers résultants avec d’autres collaborateurs Montée en puissance avec l’accumulation des données Participation aux calculs d’intérêt général si disponibilités Autres expériences LAPP hors LHC interessées

Le financement Plusieurs pistes explorées: Partenariat industriel Demandes ANR Université de Savoie (UdS) Partage d’expertise et mutualisation des coûts d’infrastructure et d’administration Projet MUST 75% utilisation LAPP 25% autres laboratoires de recherche

Le projet MUST Trois besoins ont été identifiés: Stockage sécurisé Calcul Accès à la grille EGEE Les financements acquis (TTC): 100 k€ LAPP + 8 k€ LAPTH 68 k€ pour la partie stockage (05) 12 k€ pour le calcul (06) 200 k€ pour le projet global (06) UdS

Le planning Etudes techniques et financières depuis mars Recherche de financement depuis le printemps 2005 Déploiement des ressources grilles Evolution de l’infrastructure salle calcul (climatisation 05 – onduleur 06) Livraison de la partie stockage (5 To) janvier 2006 Une évolution conséquente en 2006 (de 100 à 200 CPUs, de 10 à 20 To) Une configuration cible pour 2007

Stéphane Jézéquel: responsable scientifique L’équipe Stéphane Jézéquel: responsable scientifique Quatre personnes équivalent temps plein sont prévues pour le nœud de grille: Nadine Neyroud Responsable technique Frédérique Chollet Support middleware LCG/EGEE Sabine Elles/F.C. Support aux expériences Muriel Gougerot Exploitation M. Ahbar, S. Garrigues, F. Girault, N. Iribarnes, 1 poste IR (NOEMI) et contribution de tout le service général

Questions?