Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.

Slides:



Advertisements
Présentations similaires
Le Grid Computing Par Frédéric ARLHAC & Jérôme MATTERA.
Advertisements

Laboratoire d'InfoRmatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université Lumière Lyon.
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Grille Régionale Rhône-Alpes Institut des Grilles du CNRS Yonny CARDENAS CC-IN2P3 Réunion du groupe de travail grilles Projet CIRA Grenoble, le 2 Juin.
Recherche de similarité de séquences à grande échelle S. Penel, P. Calvat, Y. Cardenas LBBE, CCIN2P3 Calculs BLAST intensifs sur la plateforme TIDRA -
Licensing Serveur Azure Juillet 2012.
30/03/2017 Formation Plan 1.
Calcul distribué pour l'imagerie médicale
La Grille de Calcul du LHC La Grille de Calcul du LHC
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
Frédéric Hemmer, CERN, Département ITLa Grille de Calcul du LHC – novembre 2007 Wolfgang von Rüden, CERN, IT Department Frédéric Hemmer Chef-adjoint du.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
La technologie « cloud » Sa place en physique des hautes énergies C. Loomis (CNRS/LAL) Seillac mai 2010 The StratusLab project is partially funded.
Services de production grille en France Gilles Mathieu IN2P3-CC France Grilles Frédérique Chollet IN2P3-LAPP LCG France Rencontres France Grilles et LCG-France,
Alice LCG Task Force Meeting 16 Oct 2008Alice LCG Task Force Meeting 16 Oct 2008 BARBET Jean-Michel - 1/20BARBET Jean-Michel - 1/20 LCGFR Marseille Juin.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Projet LCG: Déploiement Pierre Girard EGEE/LCG ROC EGEE/LCG site deployment Centre de Calcul de l’IN2P3 LCG France Lyon, 14 décembre.
Offre DataCenter & Virtualisation Laurent Bonnet, Architecte Systèmes Alain Le Hegarat, Responsable Marketing 24 Novembre 2009.
CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
1Auteur : Oleg LODYGENSKY XtremWeb-HEP Atelier Opérations France Grille Lyon – Villeurbanne 13 et 14 octobre.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
Frédérique Chollet Yannick Patois Réunion LCG-France, Nantes 19 septembre 2012 Résultats du questionnaire DPM.
Gestion de données : Besoins de la VO Biomed Sorina Pop Laboratoire Creatis Université de Lyon, CREATIS; CNRS UMR5220; Inserm U1044; INSA-Lyon; Université.
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
Le noeud de grille Tier 3 LAPP.
Transition EGEE SA1 FR vers Opérations France Grille
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
Résumé du track “Computing Fabrics and Networking Technologies” CHEP 2010 Guillaume Cessieux – Équipe réseaux, CCIN2P
CSC Proprietary 6/20/2015 9:42:54 AM 008_5849_ER_Red 1 BPM - SOA Logo du client Synthèse de notions “fondamentales” par Guillaume Feutren, Stagiaire *
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
ATLAS Ghita Rahal CC-IN2P3 Novembre 9, /6/2006Réunion CAF2 Activités Création et externalisation d’outils de monitoring de l’état du T1 (CPU,
Contexte de l’apparition du Cloud
Proposition de possibilité d’évolution de nos spécialités Deux projets (liés) : Projet 1 : Informatique Computationnelle – Etudiants 4 e et 5 e IR Projet.
Enabling Grids for E-sciencE EGEE-III INFSO-RI Sécurité sur la Grille G. Philippon (LAL – CNRS ) Tutorial EGEE Utilisateur (DAKAR)
GRIF Status Michel Jouvin LAL/Orsay
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
Retour d'expérience de l'utilisation du cloud comme infrastructure de service Guillaume PHILIPPON.
Projet StratusLab Technologies Cloud et Virtualisation M. Airaj (CNRS/LAL), C. Loomis (CNRS/LAL) LCG-France, CPPM Marseille Juin 2010 The StratusLab.
Monitoring: état et perspectives Cette présentation fera le point sur le travail effectué au sein du groupe de travail, créé au sein de LCG-France et EGEE.
(Mon) Résumé (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Marseille, 25 juin 2010.
Contrôle, configuration et acquisition de données à l’Irfu Laboratoire d’Ingénierie Logicielle pour les Applications Scientifiques.
Roadmap opérations Revue fin 2013 Planification 2014 Visio opérations – décembre 2013.
Cécile Barbier David Bouvet Christine Leroy L'exploitation de la grille au quotidien.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Développement des templates Quattor de gLite à EMI Guillaume PHILIPPON.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
Catalogues de fichiers de données. David Bouvet2 Problématique Possibilité de répliquer les fichiers sur divers SE  nécessité d’un catalogue de fichiers.
Opérations France-Grilles : Etat des lieux Hélène Cordier/Gilles Mathieu LCG France, 30 Mai 2011.
Retour d'expérience sur le déploiement d'un site grille de production Pierre Girard EGEE/LCG ROC Deputy EGEE/LCG RC coordinator Centre de Calcul de l’IN2P3.
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
Grid au LAL Michel Jouvin LAL / IN2P3
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
Configuration des sites Intérêt de la mutualisation ! Existant avec Quattor Tendance Puppet Discussion.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
Réunion des sites LCG France- Marseille juin ACTIVITES DU GROUPE ACCOUNTING FRANCE GRILLES Cécile Barbier (LAPP)
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Mercredi 22 juin 2016 Suivi des jobs grille Colloque LCG France Mars 2007.
Besoins opérationnels de France Grilles : Le coût des opérations Gilles Mathieu, Hélène Cordier Atelier Opérations 29 Novembre - INRA - Bordeaux.
EGEE induction course, 22/03/2005 INFSO-RI Enabling Grids for E-sciencE Infrastructure Overview Pierre Girard French ROC deputy.
Colloque LCG France14-15 mars SURVEILLANCE ET GESTION D’INCIDENTS Cécile Barbier (LAPP)
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
1DSM - IRFU / PM Compte rendu du site GRIF.
08/02/2007 Site Grille : Ambitions 2007 Pierre Girard LCG-France Tier
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Session “Site Administrator” Pierre Girard.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Transcription de la présentation:

Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1

Distributed processing and analysis Le computing LHC a bien démarré : computing models adaptés traitement des données T0 - CAF Monte Carlo (simulation) formatage des données (skimming, thinning, …) transfert/distribution des données sur la grille re-processing / calibration  les modèles fonctionnent pour les tâches officielles et centralisées ( tests prévisionnels, outils de monitoring, … )  comportement de l'utilisateur difficilement modélisable évaluer l'impact des utilisateurs sur le modèle fournir des outils simples et adaptés former les utilisateurs Il faut être réactif à l'évolution du comportement du modèle (monitoring  ) Analyse ATLAS - LHCb ALICE - CMS adaptatation du placement des fichiers, effacement des données, protocoles d'accès aux données, …  luminosité du LHC : comment les modèles vont-ils se comporter ? 2

Distributed processing and analysis Les thèmes abordés (1/2): WMS / job pilotes / CREAM CE WMagent(CMS), Dirac, ALICE, … Ganga vs Dirac vs Panda (LHC + Belle + SuperB) Phenix : data oriented job submission tool Accès aux données : vérifier l'accessibilité des données avant de soumettre un job outils "data oriented" fermes PROOF protocoles : xrootd / WebDAV (dCache) SQUID / utilisation de caches distribués Outils de test / de simulation de charge et d'utilisation Monitorer / dashboards/… (mais un graphe ne fait pas tout…) Optimisation de l'utilisation des ressources simulation & analyse 3

Distributed processing and analysis Les thèmes abordés (2/2): Virtualisation : tests de différents VM / différents OS : efficacités CPU, mémoire, débit réseau  les résultats sont très dépendants de VM/OS tests 2x4 cores machine native / VM : nombre de VM ? pinning des processus ? Investir dans les réseaux // investir dans le stockage et "promener" les données / job "multiplier" le stockage et soumettre le job là où sont les données Computing models de Belle, SuperB, Fermi, Gamma-Ray Space Telescope,... s'appuient sur l'expérience du LHC utilisent les outils de grille "simplification" 4

Grid and cloud middleware EGEE / EGI a 10 ans le middleware fontionne plutôt bien encore et toujours incomplet : process de développement non prédictible, manque de stratégie cycles de développements, tests, documentation fonctionnalités manquantes : chaque VO se débrouille : OS unique, machines multi-coeurs,... nouveau middleware EMI (European Middleware Initiative) réunir les différents projets européens : gLite, ARC et Unicore  présentation du plan de travail du projet  Data Management tests & intégration : NFS4, WebDAV,...  protocoles existants (DPM,SRM/FTS) et outils de synchronisation (LFC) SRM dCache avec Terracotta // ARC DM // Chelonia // StorNet ? 5

Grid and cloud middleware nouveau middleware EMI (European Middleware Initiative  WMS vs Condor-G vs ARC CE / CREAM CE vs...  Securité  sécurité, procédures en place inter-opérabilité entre grilles jobs pilotes, jobs pilotes multi-users (glexec, Argus,...)  monitoring, accounting  meilleur gestion des packages du middleware (disponibilité, déploiement,...) visibilité, métrique, chiffres  availabilities & reliabilities outils de gestion de l'information ( # information  ) 6

Grid and cloud middleware Grid + Virtualisation = Cloud computing Virtualisation (flexibilité des ressources (OS), adaptabilité VO,...) problématique : création/effacement des images (temps), images partagées, droits sudo, sécurité différentes solutions/projets à l'echelle des labos/clusters évaluation de la perte efficacité Cloud computing accès sites clouds privés (sécurité/autorisation ?, coût ?) un cloud public peut-il s'adapter à un usage privé et vice-versa ? CMS / CRAB : calculs en période normale : grille / pic d'activité : cloud Condor et Dirac proposent des jobs pilots en mode cloud Belle : 1/3 de la production Monte Carlo a été effectuée sur Amazon présentation StratusLab, solutions locales (posters) Exemples : outils +/- matures ( déployés localement, pb de passage à l'échelle) problème de la dualité cloud privé/public 7