Biennale du LPNHE 2011, 20/09/2011 1 Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue

Slides:



Advertisements
Présentations similaires
Fête de la Science 2011 Le LHC et ses expériences des géants pour sonder le coeur de la matière Bienvenue au Laboratoire De Physique Subatomique et de.
Advertisements

LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Grille Régionale Rhône-Alpes Institut des Grilles du CNRS Yonny CARDENAS CC-IN2P3 Réunion du groupe de travail grilles Projet CIRA Grenoble, le 2 Juin.
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
Calcul distribué pour l'imagerie médicale
La Grille de Calcul du LHC La Grille de Calcul du LHC
1 Le calcul et linformatique à lIN2P3 et au DAPNIA Prospectives, La colle sur Loup 2004 Contributions:B. Boutherin (sécurité), J. Delabrouille (Astro-particules),
La formation à distance à l’INRS 7ème congrès international CIST – ICOH Enseignement et formation en santé au travail pour tous et partout Strasbourg.
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
La Grille de Calcul du LHC
Lyon, 24/04/2007 Ce que l'application a besoin de connaître: Paramètres physiques par scénario de 150 ans Nombre et numéro d'ordre des mois à effectuer.
Frédéric Hemmer, CERN, Département ITLa Grille de Calcul du LHC – novembre 2007 Wolfgang von Rüden, CERN, IT Department Frédéric Hemmer Chef-adjoint du.
Les services de santé en français et l’intégration du système de santé en Ontario Forum Santé Centre-Sud-Ouest 2009 Le 23 mars 2009.
Planification budgétaire Tier-2s Tier-3s Fairouz Malek, Fabio Hernandez, Frédérique Chollet Comité de direction 7 juillet 2008.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Le monitoring réseau dans EGEE Guillaume.
Nouvelles du CC-IN2P3 Réunion des sites-LCG France 22 novembre 2010 Dominique Boutigny.
Mise en place d’un Comité Technique Executif (CTE) Hélène Cordier – 10 mai 2011.
Réseaux LCG France Réunion LCG France 18 Mai 2009.
Services de production grille en France Gilles Mathieu IN2P3-CC France Grilles Frédérique Chollet IN2P3-LAPP LCG France Rencontres France Grilles et LCG-France,
Plate-forme MIRAGE Méso-Informatique Répartie pour des Applications en Géophysique et Environnement.
Centre de Calcul de l'IN2P3 - Lyon Toulouse - Lyon, 21 décembre 2004 Les projets de grille au Centre de Calcul de l’IN2P3.
Service Informatique Bilan Tourniquet Section 01 10/12/12
Alice LCG Task Force Meeting 16 Oct 2008Alice LCG Task Force Meeting 16 Oct 2008 BARBET Jean-Michel - 1/20BARBET Jean-Michel - 1/20 LCGFR Marseille Juin.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
9-mai-2006 Eric Lancon 1 Tier-1 et Ferme d’Analyse à Lyon Tier-1 de Lyon  Processing et stockage des données réelles  Stockage des données de simulations.
Réunion LCG-France, 7/4/2008 C.Charlot Acc è s aux donn é es Accès à dCache Problèmes de stageout des fichiers produits sur les WNs  Aussi pour le stagein.
Rôle de la commission informatique Faire un bilan de l’informatique Evaluer les besoins des utilisateurs Proposer ou valider des évolutions Canal de communication.
Frédérique Chollet Yannick Patois Réunion LCG-France, Nantes 19 septembre 2012 Résultats du questionnaire DPM.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
CAF-13/09/2010Luc1 Squad Report T2 Période 19/06-11/09 Irena, Sabine, Emmanuel.
Le noeud de grille Tier 3 LAPP.
Service Challenge 4 – Tests de Débit Bilan pour le Tier-1 LCG-France Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Comité scientifique GRIF, 19/01/ LPNHE Paris Projet GRIF au LPNHE Paris Le 2 février prochain il y aura une revue de projet au LPNHE. Le projet GRIF.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
GRIF Status Michel Jouvin LAL/Orsay
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
Dominique Boutigny Une infrastructure informatique au service des chercheurs et des industriels rhônalpins Journée de lancement de l’initiative TIDRA Traitement.
Frédérique Chollet Fairouz Malek Pierre Girard Yannick Patois Réunion LCG-France, Lyon 1 er décembre 2010 Pour clore cette édition…
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
Bilan 2012, perspectives 2013 Conseil de Groupement – 21/2/2013 V. Breton La grandeur des actions humaines se mesure à l’inspiration qui les fait naître.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
LCG-France Edith Knoops CPPM. Le LHC LEP LHC > 95% UNKNOWN STUFF OUT THERE > 95% UNKNOWN STUFF OUT THERE Black hole 3.
Grid au LAL Michel Jouvin LAL / IN2P3
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
6-7 Octobre 2008J-P MEYER1 Conclusions du groupe de travail thématique 7 Physique subatomique: - physique des particules, - physique nucléaire, - astroparticules.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
12/11/20151J-P Meyer GRIF aujourd’hui et demain ( )
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
Présentation au conseil scientifique. Une e-infrastructure dédiée au traitement des données Infrastructure distribuée, par les utilisateurs, pour les.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
Réunion des sites LCG France- Marseille juin ACTIVITES DU GROUPE ACCOUNTING FRANCE GRILLES Cécile Barbier (LAPP)
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
LCG France point Réseau Mai 2013.
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
1DSM - IRFU / PM Compte rendu du site GRIF.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
Le Projet GRIF Efficient Handling and processing of
Transcription de la présentation:

Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue GRIF (Grille au service de la Recherche en Ile de France) est une fédération de six sites, regroupant leurs capacités de calcul et de stockage pour les grilles de production WLCG et EGI

Biennale du LPNHE 2011, 20/09/ Les buts du projet Le projet est inclus dans les projets WLCG (la grille pour le LHC), LCG-France et EGI (la grille européenne interdisciplinaire). Le laboratoire est membre de l’IDG (Institut des Grilles) et à ce titre du Groupement d'Intérêt Scientifique France Grilles qui est la partie française de EGI. Le but initial du projet est d’assurer les besoins de calcul et de stockage d’ATLAS pour son Tier 2 (simulation MC et analyse de données) - ~25% du total de GRIF - et ses besoins locaux (Tier 3) Le but est aussi d’assurer/faciliter l’accès à la grille pour d’autres groupes/collaborations auxquelles participe le LPNHE et d’avoir une ouverture interdisciplinaire Les Organisations Virtuelles (VO) utliisant GRIF-UPMC : ATLAS D0 ESR (siences de la Terre) CMS AUGER VO locales de chacun des labos LHCb CTA/HESS (celle du LPNHE est utilisée par un groupe de génomique de l’UPMC) Seul ATLAS (Tier 2) a un « pledge » : cpu et disque déclaré à WLCG en avril avec assurance que ces ressources sont disponibles

Biennale du LPNHE 2011, 20/09/ Le site GRIF-UPMC en chiffres (1/3) Le site GRIF-UPMC dispose à l'heure actuelle des ressources suivantes : - 93 serveurs de calcul avec 186 cpu, 594 nœuds de calcul, permettant de traiter 800 tâches en même temps et équivalant à une puissance de calcul de 7227 SPEC06 Groupe de génomique de l’UPMC commence à utiliser nos ressources ! Installation de nouvelles machines AUGER a beaucoup calculé en aout !

Biennale du LPNHE 2011, 20/09/ Le site GRIF-UPMC en chiffres (2/3) Le site GRIF-UPMC dispose à l'heure actuelle des ressources suivantes : To utiles d'espace de stockage, essentiellement dédiés à ATLAS L’espace disque « données » du Tier 2 ATLAS se remplit régulièrement L’espace disque du Tier 3 ATLAS se vide et se remplit suivant les besoins

Biennale du LPNHE 2011, 20/09/ Le site GRIF-UPMC en chiffres (3/3) Le site GRIF-UPMC dispose à l'heure actuelle des ressources suivantes : - des liens à 10 Gbit/s vers les autres membres de GRIF et vers le Centre de Calcul de Lyon à travers RENATER GRIF-UPMC est loin d’utiliser sa bande passante – essentiellement liée aux transferts de données ATLAS

Biennale du LPNHE 2011, 20/09/ Métriques suivies par WLCG GRIF étant une fédération est vu de l’extérieur comme un site unique. En tant que Tier 2 il doit répondre chaque mois à des normes de qualité pour le projet WLCG qui sont appelées avaibility, reliability, accounting. avaibility = T accessible / T total reliability = T accessible /(T total -T arrêt programmé ) accounting = cpu utilisé / (0.6  cpu promis ) Les métriques sont mesurées par Service Avaibility Monitoring (SAM) qui effectue régulièrement une batterie de tests pour tous les sites Buts à atteindre reliability = 95% sur l’année accounting = 100%

Biennale du LPNHE 2011, 20/09/ Utilisation des sites en France Les expériences LHC sont les principales utilisatrices de la grille, avec ~83% (79% dans GRIF) du cpu. ATLAS utilise plus de 45% (39% dans GRIF) des ressources Fraction du CPU utilisé sur les sites français par différentes VO de janvier 2010 à juin 2011 Fraction du CPU utilisé sur les sites français pour chaque site de janvier 2010 à juin 2011 Le principal site est le Centre de Calcul de Lyon, qui à travers son Tier 1 et son Tier 2 représente 42% du cpu utilisé en France. GRIF représente ~27% du cpu, soit presqu'autant que le Tier 1 de Lyon.

Biennale du LPNHE 2011, 20/09/ fraction de cpu utilisé dans GRIF provenant de chacun des sites membres de la fédération. Cette fraction a été estimée sur la période de janvier 2010 à juin 2011 GRIF-UPMC= 10,4% du cpu utilisé dans GRIF. Pour ATLAS, GRIF=25% des ressources Tier 2 mais ~15% du cpu utilisé. Il y a plus de cpu disponible dans GRIF (T2/T3, hors LCG) qu’ATLAS n’arrive à utiliser ! fraction de cpu utilisé dans GRIF-UPMC par ses différents utilisateurs sur la période de janvier 2010 à septembre 2011 ATLAS ~64% CMS~16% LHCb~8% hors LHC~12% D0~3% AUGER~1% hors LPNHE ~8% Utilisation de GRIF/GRIF-UPMC

Biennale du LPNHE 2011, 20/09/ Evolution de l’utilisation des sites Les modèles de calcul des expériences LHC sont basés sur le modèle MONARC qui date de 10 ans : minimiser les transferts, le réseau est le maillon faible …. LHCOPN LHCONE Other regions T2s in a country - ATLAS est très hiérarchique, CMS moins - les réseaux sont rapides et fiables, même au niveau des Tier 2s - utilisation de caches de données et transfert à la demande là où il y a du cpu - préplacement de données près des physicien(ne)s les analysant - analyse en remote access, presque en interactif

Biennale du LPNHE 2011, 20/09/ Conclusion Le projet GRIF-UPMC a six ans ! Il a connu trois salles machines !! Merci aux Services Généraux, Service Informatique et Direction Technique pour les efforts fournis pour la mise en place et l’amélioration des salles (la clim etc…), de leur sécurité … Le budget obtenu jusqu’ici est de ~1 millions d’euros L’UPMC en a fourni une grande part mais voudra une plus grande ouverture vers d’autres laboratoires/disciplines GRIF représente ~4% des besoins d’un Tier 2 moyen pour ATLAS GRIF-UPMC représente 25% de GRIF pour le Tier 2 ATLAS, soit ~1% du total … soit 3,2 kSH06 de puissance de calcul (~44% du total) et 434 To (~2/3 du total) de stockage. Une meilleure utilisation des ressources peut/doit passer par un changement du modèle de calcul d’ATLAS (pas assez de jobs, certains espaces disques sous utilisés) Le projet doit être plus ouvert à d’autres labos de l’UPMC – c’est en cours