Frédérique Chollet (LAPP) Fairouz Malek (LPSC) Temps forts du workshop WLCG Copenhague, 11-12 Novembre Rencontres LCG-France, 26 – 28 Novemebre CC-IN2P3,

Slides:



Advertisements
Présentations similaires
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Advertisements

CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Résumé du track “Computing Fabrics and Networking Technologies” CHEP 2010 Guillaume Cessieux – Équipe réseaux, CCIN2P
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
HEPIX N. Neyroud 1.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
L’Online Executive Master in Management Organisé par Proposé en partenariat par.
Présentation de EAS Un logiciel distribuéé exclusivement par Brain2tech SARL.
Informatique Prospective. La qualité: HelpDesk au LAPP ou Pour un meilleur suivi des demandes au(x) support(s) Sylvain Garrigues.
Association R’Pro’Mobilité Conseil d’Administration du 8 avril h Air France.
DRH Groupe CONFIDENTIEL Plénière du 12 février 2016 Négociation sur le dialogue social et le droit syndical.
Sortir de MAUI – quelles options ? HTCondor dans un CREAM-CE Guillaume Philippon.
Projet StratusLab Technologies Cloud et Virtualisation M. Airaj (CNRS/LAL), C. Loomis (CNRS/LAL) LCG-France, CPPM Marseille Juin 2010 The StratusLab.
Stratégie: éléments généraux. France Grilles Est un Groupement d’Intérêt Scientifique… – créé en 2010 par 8 partenaires (CEA, CNRS,CPU, INRA, INRIA, INSERM,
Frédérique Chollet Fairouz Malek Pierre Girard Yannick Patois Réunion LCG-France, Lyon 1 er décembre 2010 Pour clore cette édition…
Projet GAX Accès à distance, d’une plate forme logiciels Métiers pour entreprises mécaniciennes NumélinkLotim Tellis Mécaloire CetimEnise Avec la collaboration.
Roadmap opérations Revue fin 2013 Planification 2014 Visio opérations – décembre 2013.
Journée Projets, 23 novembre 2010 Etienne Augé Directeur Adjoint Scientifique Physique des Particules Physique des Particules Projets 2011.
Centre d’Innovations Vertes (CIV) au Bénin. Mise en œuvre du projet pilote Zogbodomey, le 18 Avril 2016 Catalyzing the Adoption and Use of Scalable technologies.
Mathieu Walter Alexandre Perrier Réunion Correspondants Formation Cellule IAO/CAO 19 Mars 2013.
IT Advisor Messagerie en cloud Chemin de migration et meilleur pratique.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Atelier d’échange d’expériences et de capitalisation sur des projets d’électrification rurale en cours Schémas organisationnels Mardi 10 décembre 2002.
Fonctionnement des sites (1 er trim.09) Frédérique Chollet Fabio Hernandez Fairouz Malek Forum trimestriel LCG-France Lyon, 6 avril 2009.
Enjeux, succès et défis des grilles en physique des hautes énergies Faïrouz Malek, CNRS Paris le 3 Décembre 2007.
StratusLab is co-funded by the European Community’s Seventh Framework Programme (Capacities) Grant Agreement INFSO-RI La technologie « cloud » M.
1 Journées Scientifiques novembre 2003 MoMaS EDF Electricité de France Multi Domaines Simulation Multi Domaines Laurent Loth - Andra.
LPSC, journée de lancement TIDRA B. Boutherin 1/12 Tier 3 du LPSC Grenoble Une infrastructure solide, originale et éco-responsable Des ressources importantes.
A COURS ORGANISE PAR ACTRAV/ITC-ILO Travail décent, emplois verts et développement durable Centre de Turin, 24 août - 4 septembre 2015 Présentation.
CIRCOM 2005 Offre Multi plateformes France Télévisions 26 Mai 2005.
LA METHODE DU BARYCENTRE.  Objectif :  La méthode du barycentre permet de déterminer le milieu d’un réseau de points à desservir dont les coordonnées.
Jobs multicore dans WLCG Présentation en partie basée sur des présentations faites dans le cadre du groupe de travail multicore.
2011/06/14 Efficacité des jobs d’Atlas Pierre Girard Réunion de travail avec Atlas CC-IN2P3, le 14 juin 2011.
LCG-France Edith Knoops CPPM. Le LHC LEP LHC > 95% UNKNOWN STUFF OUT THERE > 95% UNKNOWN STUFF OUT THERE Black hole 3.
Sustainable Energy A mi-chemin entre le cours DE langue étrangère et le cours EN langue étrangère Christine BOUVY, Véronique DOPPAGNE, ULg – ISLV.
Informations Comité des utilisateurs du mésocentre.
Eric Fede - 1 GESTION DES PRIORITES SUR LA GRILLE.
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
6-7 Octobre 2008J-P MEYER1 Conclusions du groupe de travail thématique 7 Physique subatomique: - physique des particules, - physique nucléaire, - astroparticules.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
ARNAUD LOPEZ, CLEMENT NOIROT, TOMMAS CASTEL 1 GRH : Anne Loubès L’EMPLOI DES JEUNES QUELLES SONT LEURS ATTENTES SPÉCIFIQUES ?
Human Task Service (2008) Oscar Barrios et François Charoy Human Task Service Service de tâches dans un système de gestion de workflow Oscar Barrios
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
INFSO-RI Enabling Grids for E-sciencE Sécurité sur la Grille C. Loomis (LAL-Orsay) Tutorial EGEE Utilisateur (LAL) 8 octobre 2007.
France Grilles: plan stratégique Conseil de Groupement 13/6/2012 V. Breton La grandeur des actions humaines se mesure à l’inspiration qui les fait naître.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
1 PRESENTATION DU PROJET NTIC - SERMM. 2 SERMM Fondée en personnes, 6,9 M€ Spécialisée dans l’usinage, la soudure de pièces en métaux difficiles.
Resource allocation: what can we learn from HPC? 20 janvier 2011 Vincent Breton Crédit: Catherine Le Louarn.
Mercredi 22 juin 2016 Suivi des jobs grille Colloque LCG France Mars 2007.
Mise en place d’un cloud publique et privé Guillaume PHILIPPON.
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
Veille technologique Les objets connectés.
LCG-France Tier-2s Tier-3s Frédérique Chollet Fabio Hernandez Fairouz Malek Forum trimestriel LCG-France Lyon, 2 mars 2009.
Centre de Calcul de l’Institut National de Physique Nucléaire et de Physique des Particules Table Ronde : Quelles orientations pour le CC ? JP2015, Autrans.
Le Volet Accessibilité dans le projet « Refonte Site Web » de la Cité des Sciences et de l’Industrie Présenté par Mme Si Merabet – Abdelhadi Fatima Zohra.
Cloud Said WAHID Formateur Cloud , Développeur sénior. Net
Stratégie vers la communauté de recherche en informatique V. Breton.
Colloque LCG France14-15 mars SURVEILLANCE ET GESTION D’INCIDENTS Cécile Barbier (LAPP)
DIESAR Direction Internationale de l’Evaluation, de la Sécurité et des Affaires Réglementaires 1 Kick-Off Meeting CNIS 2016 Big Data : vecteur de continuité,
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
Les nouveautés dans les modèles de Calcul au LHC
Transcription de la présentation:

Frédérique Chollet (LAPP) Fairouz Malek (LPSC) Temps forts du workshop WLCG Copenhague, Novembre Rencontres LCG-France, 26 – 28 Novemebre CC-IN2P3, Villeurbanne

F.Malek, F. Chollet, Y.Patois, R.Vernet Réunion de collaboration WLCG Co-Organisation  GDB (Michel Jouvin), plutôt un forum technique   GDB 1 journée, 3 ième mercredi du mois (possibilité pre-GDB le mardi)  WLCG Ops coordination (Maria Girone), coordination activités et déploiement en cours  Simone Campana prend la suite de Maria Girone   er et 3 ième jeudis du mois 15h30-17h00 2

F.Malek, F. Chollet, Y.Patois, R.Vernet Réunion de collaboration WLCG Editions précédentes  Juillet 2011 (DESY), May 2012 (NYC CHEP2012) Agenda Minutes ~90 participants  Fairouz Malek, Eric Fede, Aresh Vedaee, Sébastien Gadrat, Michel Jouvin, FC Thèmes :  Préparation du Run-2 du LHC  Perspectives générales et Session expériences  Horizon

F.Malek, F. Chollet, Y.Patois, R.Vernet Perspectives RUN-2 La physique (JB. Hensen) LHC RUN 2 :  Redémarrage après quelques mois de commissionning (avril à décembre 2014)  à 6,5 (7 TeV) par faisceau pour la luminosité nominale, un paquet toutes les 25 ns Le modèle standard fait de la résistance  Quelques indices selon lesquels la nouvelle physique ne serait pas accessible à court terme mais plutôt autour de 10 TeV  Usine à Higgs : mesure de précision et recherche d’éventuelles faibles déviations par rapport au modèle standard –5,5 millions d’évévements Higgs –1400 actuellement pour ATLAS et CMS 4

F.Malek, F. Chollet, Y.Patois, R.Vernet Perspectives RUN-2 Evolution des modèles de calcul (Ian Fisk) WLCG n’est plus une collection de sites hiérarchisés  Répartition stricte des tâches  Distribution a priori des données Le cloisonnement et les spécificités/rôles des Tiers s’estompent  LHCb : analyse dans les T2D  ATLAS /CMS : première reconstruction rapide dans les T1s en cas de saturation au Tier-0  ATLAS/CMS : reconstruction MC dans certains Tier-2s  Service d’archivage sur TAPE découplé du stockage disque Tier-1 La différence entre Tier-1 et Tier-2 : support et disponibilité Utilisation opportuniste de ressources autres (+25-50% !) pour la simulation MC (activités CPU intensive): HPC ou fermes HLT 5

F.Malek, F. Chollet, Y.Patois, R.Vernet Perspectives RUN-2 Evolution des modèles de calcul (Ian Fisk) L’infrastructure évolue autorisant plus de flexibilité  en partie liée à la disponibilité et à l’utilisation de la connectivité réseau Evolution de la gestion des données : approche commune des VOS LHC  Généralisation des services de data popularité et de la gestion dynamique des données CERN  Budapest (remote computing facility)  2 x 100 Gbps  va ouvrir la voie ….à la connectivité 100 Gb/s  va bousculer la distinction LAN vs WAN  modifier notre perception de ce qu’est un site… Les 4 expériences seront en mesure d’accéder des données à distance à travers le réseau  Plus de flexibilité quant à l’accès aux données depuis les jobs Mise en production progressive des Data federation AAA (CMS), FAX (ATLAS)  trafic réseau à réévaluer par rapport à l’estimation initiale < ~10 % Data Challenge / Stress Tests courant 2014 coord. par WLCG Ops 6

F.Malek, F. Chollet, Y.Patois, R.Vernet Perspectives RUN-2 Evolution des modèles de calcul (Ian Fisk) Les 4 expériences sont en mesure d’accéder à des ressources mises à disposition directement via une interface cloud (Cloud privé)  Testé en vraie grandeur au CERN (cf. infrastructure Agile), reconversion des fermes HLT pendant le LS1 Evolution vers des modèles / un modèle Cloud offre à terme l’opportunité d’intégrer des ressources cloud et de simplifier la gestion des jobs 7 Mise à disposition de VMs pour une période de temps relativement longue avec possibilité pour le site d’interrompre l’activité et de récupérer les ressources 1,5 M pilot jobs sollicitent l’accès aux ressources des sites via CE/batch

F.Malek, F. Chollet, Y.Patois, R.Vernet Evolution côté Calcul Ulrich Schwickerath CERN-IT Support job multi-cœur / Effort de parallélisation de la reconstruction en cours de la part des expériences Depuis 2011, motivé par la nécessité d’optimiser l’utilisation de la mémoire  queues dédiées au CERN et dans les T1s peu utilisées. Comment progresser ? Proposition WLCG TASK FORCE Machine/job features  Présentation de Stephan Rosier au GDB de Juin  Machine / Job Features TASK FORCE Définir une interface entre le site et la VO, identique en environnement batch et IaaS - Mettre à disposition de la VO les infos concernant la machine ou les conditions du job  Informations statiques (HS06, nbre de cœurs alloués, local scratch space…)  Informations dynamiques (temps d’exécution restant) concernant  wrapper python en cour de finalisation, en test au CERN 8

F.Malek, F. Chollet, Y.Patois, R.Vernet Evolution côté Calcul Ulrich Schwickerath CERN-IT Il est possible de s’affranchir à terme du CE pour simplifier l’intégration de ressources Cloud Difficulté pour s’affranchir du gestionnaire de batch lorsque le site supporte plusieurs communautés - Pb Allocation et optimisation de l’utilisation ndes ressources en l’absence de mise en queues des demandes Enjeu « de taille » pour le calcul LHC : Performances notamment des I/O dans un contexte de cloud (+ ou – affectées selon la configuration et es optimisations locales) 9

F.Malek, F. Chollet, Y.Patois, R.Vernet Session Expériences Court extrait du message ALICE Forte évolution à l’horizon du RUN-3 Taux de trigger ( x 100) Reconstruction en ligne pour réduire le flux de données (1.1 TB/s issues du détecteur) Simulation MC (x20) Le File catalog ALICE ne passera pas à l’échelle Certains changements à prévoir dès le RUN-2 Pb de manpower pour la maintenance et Adaptation de l’env. AliEN Adoption de solutions communes, Synergie avec les autres expériences : CVMFS, Panda… Minimiser les solutions spécifiques 10

F.Malek, F. Chollet, Y.Patois, R.Vernet Horizon 2020 Vision HEP Ian Bird RUN-1 : Computing opérationnel RUN-2 : evolution Cloud, Federation de données Au-delà, Vision conditionnée par une très forte augmentation du taux de données attendu  Run3 (ALICE & LHCb)  Run 4 (ATLAS & CMS) Augmentation des besoins en rapport  Utilisation Pledges + ressources opportunistes Il faut cependant améliorer les performances et repenser le modèle distribué HEP La question du financement du calcul dans le futur reste entière 11

F.Malek, F. Chollet, Y.Patois, R.Vernet Horizon 2020 Vision HEP Ian Bird 12 Problèmes Coûts opérationnels élevés Economie d’échelle ?  10 gros centres plutôt que 150 petits Modèle actuel trop distribué  Potentiellement trop de cache disque Opportunités Connectivité réseau  Augmentation bande passante Pas de nécessité d’avoir toutes les données partout et de tout stocker  ‘in line’ Augmentation importante des fermes HLT Le modèle actuel ne passe pas à l’échelle. Il faut trouver les moyens d’optimiser les coûts et d’autres modes de financement Workshops réguliers pour élaborer la vision à 10 ans….

F.Malek, F. Chollet, Y.Patois, R.Vernet Horizon 2020 Vision HEP Ian Bird 13

F.Malek, F. Chollet, Y.Patois, R.Vernet Horizon 2020 e-infrastructure Vision Ian Bird 14 Service-oriented platforms Modèle hybride impliquant des fournisseurs de services public et privé Research Accelerator Hubs Gouvernance par les utilisateurs Communités scientifiques parties prenantes des e-infrastructures… Pay-per-usage business model

EIROForum papers published EIROforum is a partnership between eight of Europe’s largest inter- governmental scientific research organisations that are responsible for infrastructures and laboratories: - CERN, EFDA-JET, EMBL, ESA, ESO, ESRF, European XFEL and ILL. 3 EIROforum e-infrastructure papers published in A Vision for a European e-Infrastructure for the 21st Century: -Implementation of a European e-Infrastructure for the 21st Century: -Science, Strategy and Sustainable Solutions, a Collaboration on the Directions of E-Infrastructure for Science: 12 Nov 2013 Ian Bird; WLCG Workshop15