Enabling Grids for E-sciencE www.eu-egee.org EGEE-III INFSO-RI-222667 La Grille EGEE M. Jouvin (LAL-Orsay) Tutorial EGEE Utilisateur (LLR) 4 Juin 2008.

Slides:



Advertisements
Présentations similaires
Global Total Microcode Support (TMS ou GTMS) Microcode Management proactif pour System i, System p, System x et SAN.
Advertisements

Projet de Virtualisation dans le cadre d’un PCA/PRA
Projet ORI-OAI Réseau de portails OAI Printemps dUNIT 24 mai 2007.
A NETWORK-AWARE DISTRIBUTED STORAGE CACHE FOR DATA INTENSIVE ENVIRONMENTS Brian L. TIERNEY, Jason LEE, Brian CROWLEY, Mason HOLDING Computing Sciences.
Personnalisation des sites SharePoint avec SharePoint Designer 2007
Le Grid Computing Par Frédéric ARLHAC & Jérôme MATTERA.
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
NFE 107 : Urbanisation et architecture des systèmes d'information
Etude des Technologies du Web services
Module 1 : Préparation de l'administration d'un serveur
Sommaire Objectif de Peakup Principes de fonctionnement
Plateforme de Calcul pour les Sciences du Vivant Le Système dInformation de gLite.
Gestion des bases de données
WINDOWS Les Versions Serveurs
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
1 © Copyright 2010 EMC Corporation. Tous droits réservés.  Consolidation  Économies d’échelle grâce à la standardisation  Réduction des coûts informatiques.
Stratégie d’entreprise - Alstom Transport – Marco Férrogalini
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
Mastère Professionnel Systèmes de Communication et Réseaux
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Dr Ph CARDI - Interfaces 27/09/2001 Configuration des logiciels par les Praticiens de Santé mythe ou réalité Copyright 2001 © Intensive Care View.
CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
François CARCENAC,Frédéric BONIOL ONERA-DTIM Zoubir MAMMERI IRIT
Gestion de données : Besoins de la VO Biomed Sorina Pop Laboratoire Creatis Université de Lyon, CREATIS; CNRS UMR5220; Inserm U1044; INSA-Lyon; Université.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Module 3 : Création d'un domaine Windows 2000
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
Le noeud de grille Tier 3 LAPP.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Transition vers EGEE-III (et EGI?) Pierre.
21/02/2003DEA DISIC 1 Grid Computing Programming the grid: Distributed Software Components, P2P and Grid Web Services for Scientific Applications Tarak.
Initiation aux SGBD Frédéric Gava (MCF)
1 Structure en MC Principes Stockage des données dans la mémoire volatile d’un ordinateur Problèmes Stockage temporaire «Petits» volumes de données Langages.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Data management David Bouvet IN2P3-CC Clermont.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Sécurité sur le GRID Ahmed Beriache (CGG)
Création d’applications distribuées.NET Ziriad Saibi Relation technique éditeurs de logiciels Microsoft France.
INTRODUCTION AUX BASES DE DONNEES
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
Yannick Patois _ Journée du Libre _ 1er Novembre n° 1 Datagrid Une grille de calcul sous Linux Yannick Patois.
EGEODE 08/11/2006 Équipe GRID1 EGEODE EGEODE. 08/11/2006 Équipe GRID2 Plan  La géophysique sur la Grille : EGEODE  Partenariat académique  Comment.
Enabling Grids for E-sciencE EGEE-III INFSO-RI Sécurité sur la Grille G. Philippon (LAL – CNRS ) Tutorial EGEE Utilisateur (DAKAR)
GRIF Status Michel Jouvin LAL/Orsay
INFSO-RI Enabling Grids for E-sciencE NA4 test Eric Fede on behalf of the team.
Retour d'expérience de l'utilisation du cloud comme infrastructure de service Guillaume PHILIPPON.
Mardi 31 mai 2016 JJS (Java Job Submission) Soumission de jobs sur grille Pascal Calvat Centre de calcul.
Catalogues de fichiers de données. David Bouvet2 Problématique Possibilité de répliquer les fichiers sur divers SE  nécessité d’un catalogue de fichiers.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Data Management René Météry CS Tutorial EGEE.
INFSO-RI Enabling Grids for E-sciencE Les services d’EGEE Fede Eric Inspirée de la présentation de Frédéric Hemmer JRA1 EGEE 1 st.
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
Grid au LAL Michel Jouvin LAL / IN2P3
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
EGEE is a project funded by the European Union under contract IST Initiation à l’infrastructure Tutorial Grille (LCG/EGEE)
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Soumission de jobs C. Loomis / M. Jouvin.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
INFSO-RI Enabling Grids for E-sciencE Sécurité sur la Grille C. Loomis (LAL-Orsay) Tutorial EGEE Utilisateur (LAL) 8 octobre 2007.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
Réunion des sites LCG France- Marseille juin ACTIVITES DU GROUPE ACCOUNTING FRANCE GRILLES Cécile Barbier (LAPP)
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
INFSO-RI Enabling Grids for E-sciencE Technologie de la grille C. Loomis (LAL-Orsay) EGEE Tutorial (Marseille) 3-4 octobre 2006.
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
EGEE induction course, 22/03/2005 INFSO-RI Enabling Grids for E-sciencE Infrastructure Overview Pierre Girard French ROC deputy.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
INFSO-RI Enabling Grids for E-sciencE Data management Daniel Jouvenot IN2P3-LAL ORSAY - 02/02/2007.
INFSO-RI Enabling Grids for E-sciencE La gestion des données Daniel Jouvenot LAL-IN2P3-CNRS 18/06/2008.
La Grille EGEE M. Louvin (LAL-Orsay) Tutorial EGEE Utilisateur (LAL)
Fonctionnement de la grille
Tutorial Utilisateurs EGEE
Introduction à la Grille
Transcription de la présentation:

Enabling Grids for E-sciencE EGEE-III INFSO-RI La Grille EGEE M. Jouvin (LAL-Orsay) Tutorial EGEE Utilisateur (LLR) 4 Juin 2008

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Agenda Grilles : promesses et défis Les différents composants et acteurs d’une grille L’histoire des grilles Les principaux composants de gLite Les différentes grilles institutionnelles Les principales applications L’exemple LCG Conclusions

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Les Grilles : Pourquoi ? Partage transparent de l’utilisation de ressources massivement distribuées par des utilisateurs de différentes disciplines… –“A computational grid is a hardware and software infrastructure that provides dependable, consistent, pervasive, and inexpensive access to high computational capabilities.” (The Grid, I. Foster, C. Kesselman, 1998) … pour permettre une mutualisation des coûts –Donner accès à une très grande quantité de ressources par l’agrégation de ressources existantes –Optimiser l’utilisation d’infrastructure coûteuse –Permettre un accès occasionnel à de grosses ressources –Permettre à des communautés à faible moyen d’accéder à des ressources significatives

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Les Défis Interfaces standard aux ressources de calcul et aux données dans un contexte de sécurité intégrée –Ne doit pas être spécialisée pour une application –Définir des APIs pour l’ensemble des services Ressources et utilisateurs appartenant à des domaines « administratifs » différents –Pas d’accord bilatéraux directs possibles Gestion de ressources dynamiques et hétérogènes –Forte distribution rend impossible des choix homogènes Accounting des ressources mises à disposition ou utilisées par les différents groupes –Doit être possible d’exécuter un contrôle a posteriori –Valorisation des contributions Grands volumes de données distribuées Contrôle de l’accès aux ressources et aux données –Encryptage nécessaire pour certains types de données

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Les Grilles : La Vision Grid “Middleware ”

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Composants de la Grille Les ressources –Apportées et mises en oeuvre par certains groupes d’utilisateurs –Partagées (ou partageables) entre tous les groupes Middleware (intergiciel) : services standards permettant 1 accès virtualisé aux ressources –Sécurité (authentification / autorisation) –Soumission de jobs –Accès aux données, gestion de méta données Les applications –Ne font pas partie de la grille mais l’utilisent –Mise en oeuvre par une communauté d’utilisateur –Peuvent nécessiter une adaptation pour utiliser les services du middleware

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Avantages Techniques Mutualisation des développements et de la gestion des ressources entre communautés d’utilisateurs –Beaucoup de problèmes communs –Services standardisés de “haut niveau” évitent la duplication des solutions –Des utilisateurs concentrés sur leurs “métiers” plutôt que sur les outils  Particulièrement important pour les « petites » communautés Des ressources adaptées à la croissance des besoins –Possibilité de démarrer avec peu de ressources –Possibilité d’accès à plus de ressources pour la production –Les APIs de grille facilitent l’identification et l’accès transparent à de nouvelles ressources Accès aux données –Un grand volume disponible et “universellement” accessible –Facilité de localisation et de partage contrôlé

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Les Différents Acteurs Utilisateurs –Scientifiques ou personnes souhaitant exécuter des jobs Organisations Virtuelles (VO) –Personnes partageant un même but –Communauté délimitée se dotant de moyen de certifier l’adhésion d’un membre –Possibilités de sous groupe ou statuts différents Sites et administrateurs –Ressources dans un domaine d’administration unique –Responsable de la gestion cohérente et efficace des ressources Organisations “réelles” : souvent les financeurs… –Instituts, agences de financement, gouvernement... Forums et institutions de standardisation –OASIS, GGF, W3C, IETF,... Pas d’accord bi-latéraux (requis) entre ces entités

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Grilles : l’Histoire A partir de la fin des années 90 –Conséquence des recherches sur le meta scheduling des années 90 –// avec le power grid (réseau électrique) Accès consistant et universel aux ressources –Permettre la consolidation d’infrastructures entre communautés –Au départ, très axé sur la soumission de job (Globus, SETI) –Pas d’agrément bilatéral entre sites et utilisateurs –Jobs peuvent accéder tous les sites de façon transparente –Pas nécessaire que jobs et données soient sur le même site –Pas nécessairement des ressources dédiées (desktop grid) Les grilles de données (depuis 2000) –Permettre la gestion et l’accès transparent à des grandes masses de données réparties sur la grille. –Premier projet : EDG ( )

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Grilles Institutionnelles Ensemble de ressources généralistes dédiées –Interconnexion de « cluster » –Possibilité d’applications arbitraires –1 père commun (pour la plupart) : Globus Administration fortement coordonnée –Y compris prise en compte de la problématique de support 1 infrastructure de sécurité permettant l’identification des utilisateurs –Autorisation principalement sur la base des VOs –Autorisation grain fin basée sur les groupes et les rôles 1 système d’information reflétant l’état des ressources en « temps réels » Les principales infrastructures : EGEE, OSG D’autres architectures comme le « desktop grid » –Opposé : peu de coordination, pas d’authentification…

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI gLite : Core Services… gLite : middleware développé par EGEE –Successeur du MW initial EDG/LCG –De nombreux services (nom usurpé !) VOMS (VO Membership Service) : décrit les membres d’une VO et leur rôles ou groupes spécifiques –Pierre angulaire pour l’identification des droits des utilisateurs –Utilisé par tous les grids (OSG, NDG…)  Permet une vue cohérente des VOs dans tous les grids Sécurité (authentification) : GSI –Vient de Globus, utilisée par toutes les grilles institutionnelles –GSI basé sur PKI (certificat), utilisateur identifié par 1 DN  /0=GRID-FR/C=FR/O=CNRS/OU=UMR8607/CN=Michel Jouvin Sécurité (autorisation) : 2 services –LCAS/LCMAPS : mapping d’un DN sur un compte Unix. Utilisé par la plupart des services (ex : WMS/CE) –Autorisation VOMS directe : utilisée par certains Storage Elements pour les ACLs (garantie de cohérence et de permanence)

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI … gLite : Core Services Système d’information (BDII) : description des resources et de leur état –Mise à jour en permanence, fréquence ~2-15mn –Basé sur LDAP et un schéma d’information (GlueSchema)  Organisation hiérarchique de l’information et des serveurs collectant les données sur les ressources  « Top level » BDII sont les seuls utilisés directement par les utilisateurs User Interface (UI) –Pas 1 GUI…!!! –Ensemble d’API (bibliothèques, modules Perl/Python…)  Doit permettre d’écrire des frameworks spécialisés pour 1 besoin particulier  API / composant, pas (peu) d’API globales pour un besoin utilisateur –Outils ligne de commande pour les fonctions les plus courantes  Interface “utilisateur” intégrant plusieurs API de base  Ex : lcg utils (copie de fichiers) utilisent BDII, SRM, LFC, GSIFTP…

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI gLite : Computing Services… 2 composants principaux : WMS + CE –Ancienne génération de WMS : LCG RB WMS : meta-scheduler permettant un « match making » entre requirements et ressources –Sélectionne un site (CE) en s’appuyant sur le Système d’Information contenant l’état réel des ressources –Intégre des contraintes sur la localisation des données –Fonctionnalités avancées : bulk submission, shallow resubmission, pre- execution jobs, DAG… –Basé sur Condor-G Computing Element (CE) : interface à des batch schedulers –Condor, LSF, Torque/MAUI, SGE… –Génération actuelle : LCG CE, nouvelle génération CREAM CE  CREAM CE permettra plus d’interaction avec le scheduler (BLAHP)

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI … gLite : Computing Services Des services complémentaires ou alternatifs… –GridWay : RB plus “léger”, permettant de faibles latences de soumission  Utilise l’interface “standard” DRMAA pour gestion de jobs –Moteurs de workflow : TAVERNA et MOTEUR  Demandeur d’une interface Web Service –GANGA/DIANE (ARDA) : framework de gestion de jobs orientés sur les grosses productions  Interface de plus haut niveau que le RB, s’interface avec le RB  Utilisé par les expériences LHC Atlas et LHCb mais fondamentalement générique –Gestionnaire de pilot jobs (ex: Atlas/PanDA, LHCb/DIRAC)  Gère une queue centrale de jobs à effectuer pour la VO  Soumet un job « générique » qui vérifie l’environnement et lance l’exécution d’un job utile uniquement si les prérequis sont réunis  Augmente l’efficacité dans les grosses productions Forte diminution des jobs en erreurs

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI gLite : Data Management … 2 composants : Storage Element (SE) + File Catalog –Unité de base est le fichier nom modifiable (MSS) File Catalog : équivalent d’un directory traditionnel –Non distribué, éventuellement réplicable (Oracle) –Peut associer plusieurs replicas à un nom logique  Permet le déplacement transparent des données physiques Storage Element : basé sur l’interface SRM –Distinction entre localisation (SURL : Site URL) et protocole d’accès (TURL : Transport URL) –Permet de répartir les fichiers sur un grand nombre de serveurs qui apparaissent comme un seul  Peut intégrer un MSS backend –Plusieurs protocoles d’accès actuels  Gsiftp : transfert intégral du fichier à la ftp  Rfio : accès direct au contenu du fichier, API Posix like  https : accès aux données depuis un browser Web (pas besoin d’UI)  Posix transparent file access : NFS4 ?

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI gLite : Autres Services… FTS : File Transfer Services –“Batch system” pour le transfert de data, s’appuye sur SRM –Optimise l’utilisation des resources :  Nombre de transferts concurrents…  Gestion des reprises en cas d’erreur Metadata Management : AMGA –Associe des meta-données à des fichiers (ou des objets) –Approche type base de donnée –Permet la réplication et la distribution des serveurs –Service standard dans la prochaine version de gLite Encryption : HYDRA –Serveur de clé pour l’encryption de données au vol –Utilisé principalement par Biomed

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI … gLite : Autres Services Database Access : OGSA DAI –Interface grille, y compris sécurité GSI, aux DBs –Encore embryonnaire, peu utilisé, problème de performance et de scalabilité Accounting –Service critique pour la grille pour vérifier le “fairness” de la mutualisation –Utilise les informations de monitoring stocké dans R-GMA  R-GMA : base de donnée de monitoring distribué basé sur un modèle producteur/consommateur –APEL : collecte et publication des informations relatives aux computing services (CE)  Service actuellement en production –DGAS : framework générique de collecte d’information d’accounting  Devrait à terme remplacer APEL

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Job Execution Workflow User Interface Resource Broker Information System Replica Catalogs 1. submit 2. query 3. query 4. submit 5. retrieve 6. retrieve publish status User Interface Resource Broker Information System Replica Catalog Storage Element Computing Element Site 1 Storage Element Computing Element Site 2

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI EGEE : Les Objectifs EGEE - €32 M –1 Avril 2004 – 31 Mars 2006 –71 partenaires dans 27 pays, organisés en « fédération » EGEE-II - €35 M –1 Avril 2006 – 30 Avril 2008 –120 partenaires dans 48 pays –160 VOs EGEE-III - €31 M –1 Mai 2008 – 30 Avril 2010 Objectifs –Infrastructure de production offrant des ressources à grande échelle pour toutes les communautés e-science privées et publiques –Assurer la transition vers 1 infrastructure pérenne basée sur des infrastructures nationales (NGI)

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI EGEE : La Réalité … Size of the infrastructure today: 250 sites in 50 countries ~ CPU ~ 20 PB disk + tape MSS Sustained load 150 Kjobs/day Data Transfer > 2 GB/s m/

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Ressources fournis Les sites décident qui peut utiliser leur ressources. Les sites du EGEE supportent des disciplines variées –Les sites souvent déploient plus d’un CE ou SE. –Nombre pas taille des ressources! # CEs # SEs HEP LS CC2541 AA5783 Fusion1921 ES4265 Others Unknown Infra Total366334

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Forte Croissance de l’Utilisation Nombre d’heures délivrés en 1 an : x2 #30000 cœurs dernière génération utilisés en permanence 1/3 hors LCG

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI VOs « actives » Nombre des VOs « actives » augmente ainsi que les ressources consommées par VO –Nombre de VO multiplié par 2 en 2 ans  Total VOs : 104 enregistrées, 258 visibles –La croissance concerne surtout les VOs consommant beaucoup de ressources

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI OSG Open Science Grid Modèle à la EGEE aux USA –Financement de 5 ans ( ) –Ouvert à toutes les communautés utilisateurs  Comme en Europe, HEP est la communauté la plus active Les gros centres de calcul + des universités –Centres de calcul DOE –96 sites, CPU, 4 PB disque, 6 PB bande Produit un middleware –Basé sur VDT (Globus+Condor), comme EGEE –Pas de resource broker spécifique : utilisation de Condor –Plusieurs composants importés d’EGEE : VOMS, SRM… –Des développements propres : authz (SAZ/GUMS) Intégration opérationnelle et interopérabilité croissante avec EGEE –Sécurité, support, BDII, monitoring…

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Les Principaux Utilisateurs Astrophysics –Planck, MAGIC Computational Chemistry Earth Science –Hydrology, Pollution, Climate, Geophysics, … Fusion High-Energy Physics –LHC/LCG, Tevatron, HERA, … Life Sciences –Medical Images, Bioinformatics, Drug Discovery Related Projects –Finance, Digital Libraries, … And more…

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Type d’Applications… EGEE : support de différents types d’application simultanément sur la même infrastructure –Différence avec les desktop grids Simulation : batch, pas de gestion de donnée –CPU intensif, jobs « longs » –Pas (peu) de données en entrée, gros fichiers de sortie –Beaucoup de job indépendants, peu d’utilisateurs  S’appuie sur des gestionnaires de jobs tels GANGA ou DIANE Analyse de données : batch + gestion de données –Beaucoup de données distribuées en entrée, gros fichiers en sortie –Requirements de la simulation + outils sophistiqués de transferts de données (ex : FTS)  Peut nécessiter aussi une gestion de meta-données (AMGA) ou l’intégration avec des bases de données

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI … Type d’Applications Pseudo-interactif : temps de réponse court –Application hors grille qui soumet un grand nombre de jobs courts et consolide les résultats  Généralement GUI ou portail Web –Peu de données en entrée et en sortie –Besoin d’un scheduling immédiat des jobs  Problématique de standing reservation, préemption… Workflow : enchainement de tâches complexes –Même problématique que l’analyse de données mais avec des tâches complexes et interdépendantes  Utilisation de plusieurs infrastructures : super-calculateurs, grille… –S’appuie sur des moteurs de workflow hors grille (e.g. TAVERNA) Applications parallèles : MPI –Actuellement 1 job confiné dans 1 site (idem DEISA) Utilisation croissante d’applications commerciales –Problématique du licensing (ex : WISDOM, EGEODE, MatLab…)

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI LHC : How Large is Large ? 9 km © CERN Geneva

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI L’expérience Atlas 40 m de long, 7000 tonnes…

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Données du LHC : Le Challenge Data Rate: –40 MHz interaction rate –100 Hz of filtered events –1-10 megabytes per filtered event –0.1-1 gigabytes/second Data Volume: –LHC runs 24/7 (starting mid-2008) –Generates 15 petabytes of data per year! –Intended to run years –Simulated data about the same size Data management is the real challenge for LHC. –Recording and retrieval. –Metadata management for locating interesting data. –Chaotic analysis and large productions.

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI LCG : LHC Computing Grid Organisation mondiale regroupant les expériences LHC et les sites leur offrant des ressources –Appartenance définie par 1 MoU –Chaque expérience (4) est 1 VO –Besoin global estimé à 100 MSI2K en 2008 LCG utilisent les infrastructures de grille existante –Principalement EGEE et OSG Sites répartis en 3 Tiers suivant leur taille/responsabilité –T0 (CERN) : toutes les données brutes. 20% des ressources globales –T1 (~15) : une partie des données brutes et reconstruites (duplication). 35% des ressources globales –T2 (~100, ex: GRIF) : simulation et analyse, pas de stockage de long terme. 45% des ressources globales Principal challenge est la distribution des données –Données organisées en dataset et distribuées avec FTS

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Avantages de la grille La science se fait avec un mélange de coopération et de compétition. Partage des ressources : –Meilleur utilisation des ressources –Permet d’obtenir (et publier) des résultats plus rapidement Fédération des ressources (et données) : –Utilisations de données plus variées –Production de résultats plus précis Collaboration –Infrastructure permet de mettre ensemble les gens avec des compétences différentes. –Moyen pour publier, re-utiliser, et combiner les résultats précédents.

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Conclusions… Les grilles sont une réalité –2 infrastructures (EGEE, OSG) en phase de production –La communauté HEP n’a pas de plan B pour le LHC  Première démonstration de bout en bout par Atlas en Aout 08 –La pérénisation des structures sur le mode GEANT (EGI) est en cours Les grilles attirent des communautés d’utilisateurs et des applications de plus en plus variées Moyen sans équivalent de partage des ressources –Réduction des coût hardware –Meilleur temps de réponse –Augmentation (potentielle !) de la fiabilité

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI … Conclusions Des APIs standard de haut niveau disponibles –Permet l’intéropérabilité de différentes implémentations pour un même service  Intégration des différents types de grille –Permet aux utilisateurs de se concentrer sur leurs métiers Le « middleware » continue évoluer pour mieux servir ses utilisateurs. –Le base est plus stable, plus « scalable », … –Plus des services complémentaires disponible

La Grille – M. Jouvin – 4 Juin 2008 Enabling Grids for E-sciencE EGEE-III INFSO-RI Liens utiles Site web de l’activité NA4 : – Informations gLite : – « Use Cases » : – uig/production_pages/UIGindex.htmhttp://egee-uig.web.cern.ch/egee- uig/production_pages/UIGindex.htm Matériel formation de l’activité NA3 : –