GRIF : Grille pour la Recherche en

Slides:



Advertisements
Présentations similaires
Alice LCG Task Force Meeting 16 Oct 2008Alice LCG Task Force Meeting 16 Oct 2008 BARBET Jean-Michel - 1/20BARBET Jean-Michel - 1/20 LCGFR Marseille Juin.
Advertisements

Production DC2 ATLAS David Bouvet LHC Calcul 22 juillet 2004.
GRIF Status Michel Jouvin LAL/Orsay
Expérience du déploiement d’une Virtual Organisation (VO) locale Christophe DIARRA
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
INFSO-RI Enabling Grids for E-sciencE Support MPI avec Torque/PBS C. Loomis (LAL-Orsay) EGEE-FR Conférence Téléphonique 7 Juin 2005.
12/11/20151J-P Meyer GRIF aujourd’hui et demain ( )
LCG France point Réseau Mai 2013.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
1DSM - IRFU / PM Compte rendu du site GRIF.
05-fevrier-2007Eric Lancon1 ATLAS Bilan Planning 2007.
Nombre de job slot par machine Server_priv/node. Node1 np=2 Règle de 1 core = 1 job slot = 2 Go. Sur un bi-processeur bi-core on annonce alors np=4 Pas.
Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
Fabio HERNANDEZ Responsable Grid Computing Centre de Calcul de l'IN2P3 - Lyon Lyon, 30 avril 2004 Déploiement LCG-2 au CC-IN2P3 Etat d’avancement.
Quattor Status Guillaume PHILIPPON. Résumé EMI 2 / 3 DPM Changement de nom de profile SPMA 3 Aquillon Stratuslab Organisation de la communauté Quattor.
INFSO-RI Enabling Grids for E-sciencE Statistiques d'usage d'un site de la grille LCG/EGEE Emmanuel Medernach, IN2P3 LPC.
Alice LCG Task Force Meeting 16 Oct 2008 BARBET Jean-Michel - 1 /20 LCGFR Marseille Juin 2010Jean-Michel BARBET Subatech 1 /22 Support de la VO Alice à.
1 Stéphane JEZEQUEL 23 Juin 2008 Analyse des données LHC dans ATLAS S. Jézéquel.
Alice LCG Task Force Meeting 16 Oct 2008 BARBET Jean-Michel - 1 /20 LCGFR-T2T3, Annecy Mai 2009Jean-Michel BARBET Subatech 1 /18 IN2P3-SUBATECH :
Projet LCG-France Planning Fairouz Malek, Fabio Hernandez Responsables LCG-France Journées projets de l’ IN2P3 Paris, 5 juillet 2007.
INFSO-RI Enabling Grids for E-sciencE L’activité EGEE au CINES Nicole Audiffren, Adeline Eynard et Gérard Gil Réunion de la fédération.
Réseau LCG-France LCG France 11/2008 Centre de Calcul de l'IN2P3/CNRS.
LCG France point Réseau Novembre 2013.
Albertine DUBOIS et Alexandre LIEGE
Michel Jouvin LAL/Orsay
Lundi 2 juillet 2007 Résumé ARM Stockholm Rolf Rumler.
Passage de Main SYSGRID Réunion 1
L’accounting dans EGEE
GENIUS – GANGA Alternative à la CLI
GANGA/DIANE Mohammed AIRAJ CEA/IRFU EGEEIII/NA4
C. Loomis (LAL-Orsay) Tutorial EGEE Utilisateur (LAL) 2 février 2007
Vue d'ensemble de l'utilisation du CCIN2P3 par les expériences LHC
Etat des services grid de production
Pierre Girard LCG-France Tier
Fonctionnement de la grille
Surveillance des services grille par NAGIOS
Etat des lieux des VO Boxes LHC
David Bouvet, David Weissenbach Observatoire de Meudon, 01-02/02/2011
Projet de participation CMS au GRIF
Configuration FTS pour CMS
Soumission de jobs C. Loomis / M. Jouvin (LAL-Orsay)
Déploiement d’un LCG CE
Statut du T2 Île de France
Présentation OCS-Inventory au LAPP
David Bouvet IN2P3-CC Annecy - 27/09/2007
LCG-France Tier-1 & AF Réunion mensuelle de coordination
David Bouvet LCG France T2 T3 – LPNHE
Le Projet GRIF Efficient Handling and processing of
CREAM-CE et SGE.
Exploitation et déploiement
Exercices: Système d’Information
Atelier régulation de la production dans un contexte grille
Comparaison RB et gLite WMS
Journées LCG-France Point IPv6
France Grilles Formation DIRAC janvier 2018.
Infrastructure Opérationnelle d’EGEE
Introduction à la Grille
GRIF : Site EGEE au Service de la Recherche en IdF
Mésocentre de calcul et de stockage ouvert sur la grille EGEE (MUST) LAPP/ Université de Savoie / EGEE.
Cécile Germain-Renaud – LRI
Représentant technique Représentant scientifique
Représentant technique Représentant scientifique
Michel Jouvin LAL/Orsay
GRIF-STATUS Etat du site Nos engagements vis-à-vis d’ATLAS 17/05/2010
Comité Scientifique GRIF
LCG – France et ALICE Bilan 2006 Planning fevrier 2007
Résumé des Actions Suite aux Réunions CB et MB
Comité Scientifique GRIF
Michel Jouvin LAL/Orsay
Conception d’un QCM F. Loizeau ; Clermont-Ferrand.
Transcription de la présentation:

GRIF : Grille pour la Recherche en Site GRIF et GRIF-IPNO GRIF : Grille pour la Recherche en Ile de France – grif.fr Christophe DIARRA 26/03/2010 Quelques extraits de slides de Frédéric Schaer (IRFU) et de Andrea Sartirana (LLR)

GRIF - EGEE - LCG 6 laboratoires LPNHE 3 universités et une école 1 partenaire hébergé ~30 personnes  8,2 TEP Opérations  1,5 TEP Management  0,4 TEP Physiciens  5,4 TEP EGEE3 dont 2 SA1 -------------------------------------------------------------- 15,5 TEP dont 10,2 TEP Opérations Une équipe soudée

GRIF - EGEE - LCG Ressources fin 2009 6 laboratoires LPNHE 350 cores, 254 TB 580 cores, 450 TB 1750 cores, 105 TB LPNHE 395 cores, 40 TB 250 cores, 43 TB 112 cores, 7TB ~ 3500 cores (>5000 cores en Mars 2010) ~ 1PB (>1PB en Mars 2010) 16 VOs : ALICE, ATLAS, OPN 10 GB/s entre les sites VLAN GRIF 4GB/s vers Lyon Services répondants, config commune (Quattor), mutualisation services, ressources humanes

GRIF - EGEE - LCG

Le Site IPNO GRIF - EGEE - LCG VO supportés : ipno, agata, ALICE, ops, dteam, formation, grif, apc, llr, lal, irfu, lpnhe, psud ~30 utilisateurs inscrits dans la VO ipno 2 CEs (deux clusters) avec support de MPI ipnls2001  plus de 400 cores (+240 bientôt) ipngrid12: cluster avec IB, défiés aux parallèles MPI  160 cores 1 SE DPM+xrootd: ipnsedpm 3 disk servers (+8 autres bientôt) ~60 TB bruts (+~240TB bientôt) 1 WMS : ipngrid28 2 UIs : ipngrid02 et ipngrid01 (ipngrille) 1UI gsissh : grid11 (pour ceux qui n’ont pas de UIs) et pour le login-intersites

Le Site IPNO : disques NFS GRIF - EGEE - LCG Le Site IPNO : disques NFS Disques partagés via NFS et accessibles sur le UI et les CE/WNs. /nfs1 /nfs1/scratch : zone de scratch /ipn/radio, /ipn/theo, /ipn/agata2 Utilisables en lecture directement dans les jobs, mais nécessite de gérer manuellement les droits avec chmod  nombreuses sources d’erreurs  préférer l’utilisation du SE Sur le UI, commandes clientes du système de batch qstat, etc… (voir documentation fournie) Bientôt un wiki disponible sur machine virtuelle : ipngridwiki

Le Site IPNO : les queues batch GRIF - EGEE - LCG Le Site IPNO : les queues batch CE ipnls2001 : ipno : pour les jobs longs <= 10 jours de CPU time. Supporte aussi les jobs MPI en TCP sur ethernet 1Gb/s omp : pour les jobs parrallèles SMP utilisants OpenMPI  toutes les CPUs du WN réservés au job CE ipngrid12 : ipno : queue avec 64 cores Hapertown ipnofast : queue avec 96 cores Nehalem Temps CPU max autorisé ipno, ipnofast, omp: 10 jours sdj : 10 min  à utiliser en phase de test. Les jobs soumis sur cette queue s’exécutent immédiatement même si toutes les CPUs sont occupées.

Le Site IPNO : les queues batch (suite) GRIF - EGEE - LCG Le Site IPNO : les queues batch (suite) Queue sdj Les jobs qui utilisent cette queue ne doivent pas être trop gourmands en mémoire. Ne pas dépasser 1GB de RAM. En effet ces jobs peuvent se retrouver à tourner sur un WN déjà plein (toutes les CPUS déjà occupées). Pour utiliser la queue sdj, mettre dans le .jdl ShortDeadlineJob=true; Requirements = RegExp("ipnls2001.in2p3.fr.*sdj$",other.GlueCEUniqueID); ou Requirements = ( other.GlueCEUniqueId == "ipnls2001.in2p3.fr:2119/jobmanager-pbs-sdj");  On peut remplacer ipnls2001 par ipngrid12 ou Requirements = RegExp("ipn.*\.fr.*sdj$",other.GlueCEUniqueID);

Le Site IPNO : les WMS GRIF - EGEE - LCG Plusieurs WMS sont configurés pour la VO ipno Liste donnée par lcg-infosites –vo vo.ipno.in2p3.fr wms Le LB est grid09.lal.in2p3.fr (nom contenu dans le job ID) Le WMS utilisé est choisi au hasard parmi une liste. En cas d’échec, il y a « fail-over » sur le WMS suivant En cas de problème avec un/des WMS, utiliser glite-wms-job-list-match –a jod.jdl plusieurs fois pour repérer un WMS qui répond vite. Puis forcer la soumission via ce WMS avec l’option ‘-e’. Exemple: glite-wms-job-submit -a -e https://ipngrid28.in2p3.fr:7443/glite_wms_wmproxy_server job.jdl

Le Site IPNO : financement GRIF - EGEE - LCG Le Site IPNO : financement

Le Site IPNO : en cas de problème GRIF - EGEE - LCG Le Site IPNO : en cas de problème Contacts : Christophe DIARRA diarra@ipno.in2p3.fr Phi-Phong NGUYEN phiphong@ipno.in2p3.fr Ou mieux grid.support@ipno.in2p3.fr ou grid.admin@ipno.in2p3.fr S’il n’y a pas de réponse (en cas d’absence), contacter grid.admin@grif.fr En dernier recours, créer un ticket GGUS : http://www.ggus.org