Eddy Caron Join work with Bruno Bzeznik (IMAG), Ibrahima Cissé (SysFera), Benjamin Depardon (SysFera), Hubert Gallée (LGGE), Hakim Majidi (LGGE), Laurence.

Slides:



Advertisements
Présentations similaires
Revenir aux basiques !. 1 Revenir aux basiques Processus Nécessité daméliorer la Maîtrise les Offres et Projets: lanalyse des causes racines montre un.
Advertisements

Status report SOLEIL April 2008
Object Management Architecture (OMA)
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
B. Del-FabbroCFSE05LIFC p.1 Data Tree Manager : Un service de gestion des données persistantes pour le calcul ASP sur la grille Bruno DEL-FABBRO LIFC Besançon,
Par Sidi Mahmoud Aidara Mbibi
TM.
Defence Research and Development Canada Recherche et développement pour la défense Canada Canada 11-1.
Rennes, le 18 septembre 2006 Support du paradigme maître-travailleur dans les applications à base de composants Tâche 2.2 Hinde Bouziane Réunion LEGO.
Contribution du projet PARIS Christian Pérez Réunion LEGO LIP, ENS Lyon 10 février 2006.
Systèmes distribués Le futur des systèmes dinformation est: Networked Diverse Numerous Mobile Ubiquitous Systèmes multiagents Middlewares: CORBA JINI HLA.
Réunion #9 12/06/2008. E. Caron - Réunion #9 - 12/06/08 Planning 10h15 – 10h30Informations générales sur LEGO [Eddy Caron] 10h h00MADAG: Redesign.
DIET Dashboard Meeting LEGO 11 déc 2006
VTHD PROJECT (Very High Broadband Network Service): French NGI initiative C. GUILLEMOT FT / BD / FTR&D / RTA
KM-Master Course, 2004 Module: Communautés virtuelles, Agents intelligents C3: Collaborative Knowledge construction & knowledge sharing Thierry NABETH.
Information Theory and Radar Waveform Design Mark R. bell September 1993 Sofia FENNI.
What is the nanotechnology History applications of nanotechnology Conclusion.
Épopée d’expériences DIET sur Grid5000
Core Module 10 Advocacy: Engaging the Public Association des conseils scolaires des écoles publiques de l’Ontario (ACÉPO) Association franco-ontarienne.
1 Extension du modèle de composants CORBA avec accès concurrent à des données partagées Travail réalisé par : Landry BREUIL PFE, ISIMA Encadrants : Gabriel.
Nereus Project, réunion Océano, Toulouse, 30/09/2008 Journée de rencontre Météo France/Mecator/Océan 14 Juin 2010 Cal/Val scientifique Mercator Océan 1.
Bilan GDS Du côté de chez GRAAL Eddy Caron LIP ENS Lyon.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
Research interests Viviane Gascon Vietnam Nurse scheduling Viviane Gascon and Éric Gagné.
Gestion de données : Besoins de la VO Biomed Sorina Pop Laboratoire Creatis Université de Lyon, CREATIS; CNRS UMR5220; Inserm U1044; INSA-Lyon; Université.
GLOBE Software Global Oceanography and Bathymetry Explorer IFREMER
BENCHMARK JOBS Marie-Laure Rivier – January 2015.
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
1 Programmation en C++ Marianne Morris. 2 Intro générale à la programmation On a déjà étudié le langage assembleur Langage de bas niveau Meilleur que.
Student Management Marks Gaston Berger University School Year Project on Mobile Application Development.
© 2014 IBM Corporation IBM « Smarter Cities » Smarter Transportation Smart Transportation TechMeeting – Paris - March 3d 2015 Yves DAUMAS Directeur du.
ECASA.org.uk Ecosystem approach for a sustainable aquaculture STREP (FP6, Priority 8)
ÉCOLE POLYTECHNIQUE CONCOURS 2010 Workshop NSERC scholarship application 23 avril 2015 École Polytechnique.
1 de 24 Cours 11 - synchronisationMGL Witold Suryn Cours 11 – SQIM - synchronisation et gestion de changements 1 Ingénierie de la qualité du système.
1 Ce document est la propriété d ’EADS CCR ; il ne peut être communiqué à des tiers et/ou reproduit sans l’autorisation préalable écrite d ’EADS CCR et.
Présentation des architectures et scénarios de tests
Techniques de l’eau et calcul des réseaux le calcul hydrologique proprement dit Michel Verbanck 2012.
La mémoire(1): Comment bien travailler
Tache 1 Construction d’un simulateur. Objectifs Disposer d’un simulateur d’une population présentant un déséquilibre de liaison historique, afin d’évaluer.
Welcome everyone.
1 Journee gdr COSMAL 27/01/2009 Exécution Distribuée et Agile de Compositions de Services Françoise Baude & Virginie Legrand
21/02/2003DEA DISIC 1 Grid Computing Programming the grid: Distributed Software Components, P2P and Grid Web Services for Scientific Applications Tarak.
Environment Canada Meteorological Service of Canada Canadian Meteorological Centre Environnement Canada Service météorologique du Canada Centre météorologique.
S8 Web Strategies and Development project Charline ALLILAIRE Laurent ESNAULT Shaden ITANI.
« © CEA [2006]. Tous droits réservés. Toute reproduction totale ou partielle sur quelque support que ce soit ou utilisation du contenu de ce document est.
Session : Modele plan d’action Template Action Plan
Soutenance de fin d'études ESIEA Développement de modules pour un portail pour clubs sportifs Rémi Khounsamnane promotion 2006.
University of Ottawa - Bio 4118 – Applied Biostatistics © Antoine Morin and Scott Findlay 24/07/2015 2:29 PM Bootstrap et permutations.
Netwin is supported by the EU Commission in the framework of the Recite II programme Le projet Netwin est soutenu par la Commission Européenne dans le.
Fabien Plassard December 4 th European Organization for Nuclear Research ILC BDS MEETING 04/12/2014 ILC BDS MEETING Optics Design and Beam Dynamics Modeling.
OAI-PMH & LOM OAI Repository interoperability using LOM metadata format Interopérabilité des bases de ressources utilisant OAI-PMH et LOM Steve Giraud.
RozoFS KPI’s edition /04/2014. © Fizians Ce document ne peut être reproduit ou communiqué sans autorisation écrite. 2 RozoFS high level architecture.
StratusLab is co-funded by the European Community’s Seventh Framework Programme (Capacities) Grant Agreement INFSO-RI StratusLab : Le projet et.
Contrôle, configuration et acquisition de données à l’Irfu Laboratoire d’Ingénierie Logicielle pour les Applications Scientifiques.
Déploiement AIRSUPPLY chez THALES Avionnics
Warwick Bailey Icodeon Ltd Cambridge, UK Icodeon SCORM 2004 Technologies Technologies Icodéon SCORM 2004 Warwick Bailey Icodéon SA Cambridge,
1 Status de l’étude de mesure d’impulsion par MCS Application aux ‘softs’ muons D. Duchesneau Situation actuelle: algorithme de base et vérification avec.
Merci de remplir le formulaire et de le renvoyer à avant le 16 mai 2016 Please complete and send to
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
Grilles de recherche Veronique Donzeau-Gouge. 2 objectifs Renforcer la présence du CNRS dans ce domaine en liaison avec : L’Institut ST2I L’INRIA, Les.
Resource allocation: what can we learn from HPC? 20 janvier 2011 Vincent Breton Crédit: Catherine Le Louarn.
Page : 1 ObjectWeb 04/10/2004 Direction Générale du Système d ’Information Ce document est la propriété intellectuelle de DASSAULT AVIATION. Il ne peut.
WINS Windows Internet Name Service. What is WINS?  It does name resolution (?!) DNS resolves IP numbers and FQDN ARP resolves IP numbers and MAC addresses.
Traffic Sign Recognition Jacob Carlson Sean St. Onge Advisor: Dr. Thomas L. Stewart.
IP Multicast Text available on
Projet eXtreme DataCloud XDC
- User case - 3D curve length optimization
High-Availability Linux Services And Newtork Administration Bourbita Mahdi 2016.
M’SILA University Information Communication Sciences and technology
Transcription de la présentation:

Eddy Caron Join work with Bruno Bzeznik (IMAG), Ibrahima Cissé (SysFera), Benjamin Depardon (SysFera), Hubert Gallée (LGGE), Hakim Majidi (LGGE), Laurence Viry (UJF) Ecole Normale Supérieure de Lyon AVALON Research Team SysFera D istributed I nteractive E ngineering T oolbox

Contexte  Le climat de l’Afrique de l’ouest est piloté par un système de mousson avec une activité dynamique de mai à Septembre  Ce cumul étant faible en zone Sahélienne (500 à 600mm), une faible variabilité à la baisse de ce cumul peut entraîner un stress hydrique irréversible pour les cultures et la végétation  Quels sont les principaux processus responsables de la variabilité de la mousson ? la température de surface de l’océan, l’albédo,...  Quelle est la dynamique spatio-temporelle du système ? Utilisation d’un modèle atmosphérique régional : MAR Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences2

 MAR: Modèle Atmosphérique Régional Hydrostatique microphysique nuageuse pronostique paramérisation convection: Bechtold 2002 couplé au svat SISVAT résolution horizontale: dx = 40 km 40 niveaux verticaux, le premier à 10 m MAR AMMA 3Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences

Motivations  Analyse de sensibilité spatio-temporelle des sorties du modèle atmosphérique régional MAR à la variabilité spatio-temporelle des entrées. Les techniques classiques sont basées sur des méthodes de Monte-Carlo très couteuse en ressources de calcul. Le nombre de paramètres en entrée comme en sortie est important. On veut récupérer la dynamique spatio-temporelle du système. Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences4

Motivations  Modélisation Mathématique Modélisation fonctionnelle des entrées comme des sorties Construction d’ un modèle approché fonctionnel construit sur l’observation des entrées et des sorties (pas de physique), peu couteux en ressources de calcul permettant le calcul des indices de sensibilité (SOBOL).  Contexte physique : Paramètres d’entrée du modèle : température de surface de l’océan (SST) Paramètres de sortie du modèle : précipitations Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences5 Température de Surface de l’Océan Précipitations méta-model

Cadre statistique  Data : 18 années d’observations R (maillage G ) zone du golf de Guinée : observation de la SST (Sea Surface Temperature) R ' (maillage G’ ) zone Sub-Saharienne : précipitations (sortie du modèle) T période d’observation chaque année (mars à octobre)  Méthodologie : Xi := (Xi (x, t ))x ∈ R,t ∈ T trajectoire aléatoire de la SST l’année i Yi := (Yi (x ′, t))x’ ∈ R’,t ∈ T trajectoire aléatoire des précipitations Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences6

Modélisation statistique des entrées/sorties  Pour les entrées comme pour les sorties on effectue une décomposition de Karuhnen-Loève (EOF) en chaque point du maillage.  On suppose : que le degré de troncature ne dépend pas du point d’espace, la stationnarité spatiale des premières fonctions propres par sous- région  Modèle : La région R (resp R ’) est partitionnée en p (resp p') sous-régions R 1,..., R p (resp R 1,...,R p ' ). On choisit x 0,j ∈ R j avec j ∈ {1,...,p}.  Pour x ∈ R j on a la décomposition : Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences7

Modélisation statistique des entrées/sorties  Résultats : on retient deux fonctions propres pour la décomposition de la SST (resp précipitations), par classification fonctionnelle sur les trajectoires, deux sous- régions satisfaisant l’hypothèse de stationnarité spaciale pour la SST (resp précipitations).  Qualité des estimations Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences8

Outline  MAR Application  Middleware: DIET  Targeted platform: CIMENT  Implementation  Conclusion 9Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences

DIET’s Goals  Our goals To develop a toolbox for the deployment of environments using the Application Service Provider (ASP) paradigm with different applications Use as much as possible public domain and standard software To obtain a high performance and scalable environment Implement and validate our more theoretical results  Scheduling for heterogeneous platforms, data (re)distribution and replication, performance evaluation, algorithmic for heterogeneous and distributed platforms, …  Based on CORBA and our own software developments FAST for performance evaluation, LogService for monitoring, VizDIET for the visualization, GoDIET for the deployment  Several applications in different fields (simulation, bioinformatics, …)  Release 2.8 available on the web since november  ACI Grid ASP, RNTL GASP, ANR LEGO CIGC-05-11, ANR Gwendia, Celtic-plus Project SEED4C Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences10

RPC and Grid-Computing: Grid-RPC One simple idea – Implementing the RPC programming model over the grid – Using resources accessible through the network – Mixed parallelism model (data-parallel model at the server level and task parallelism between the servers) Features needed – Load-balancing (resource localization and performance evaluation, scheduling), – IDL, – Data and replica management, – Security, – Fault-tolerance, – Interoperability with other systems, – … Design of a standard interface – within the OGF (Grid-RPC and SAGA WG) – Existing implementations: NetSolve/GridSolve, Ninf, DIET, OmniRPC Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences11

RPC and Grid Computing: Grid-RPC AGENT(s) S1S2 S3 S4 A, B, C Answer (C) S2 ! Request Op(C, A, B) Client Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences12

 Distributed Environment  Hierarchical structure Architecture overview Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences13

Client and server interface  Client side So easy … Multi-interface (C, C++, Fortran, Java, Python, Scilab, Web, etc.) Grid-RPC compliant  Server side Install and submit new server to agent (LA) Problem and parameter description Client IDL transfer from server Dynamic services  new service  new version  security update  outdated service  Etc. Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences14

Workflow Management  Workflow representation Direct Acyclic Graph (DAG)  Each vertex is a task  Each directed edge represents communication between tasks  Goals Build and execute workflows Use different heuristics to solve scheduling problems Extensibility to address multi-workflows submission and large grid platform Manage heterogeneity and variability of environment  ANR Gwendia Language definition (MOTEUR & MADAG) Comparison on Grid’5000 vs EGI Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences Idle timeData transfertExecution time EGI (Glite)32.857s s s Grid’5000 (DIET) 0.214s s s 15

DIET Scheduling: Plug-in Schedulers  SeD level Performance estimation function Estimation Metric Vector - dynamic collection of performance estimation values  Performance measures available through DIET FAST-NWS performance metrics Time elapsed since the last execution CoRI (Collector of Resource Information)  Developer defined values  Aggregation Methods Defining mechanism to sort SeD responses: associated with the service and defined at SeD level Tunable comparison/aggregation routines for scheduling Priority Scheduler  Performs pairwise server estimation comparisons returning a sorted list of server responses;  Can minimize or maximize based on SeD estimations and taking into consideration the order in which the request for those performance estimations was specified at SeD level. Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences16

CoRI-Easy Collector CoRI-Easy Collector FAST Collector FAST Collector CoRI Manager Other Collectors like Ganglia DIET Scheduling: Performance estimation  Collector of Resource Information (CoRI) Interface to gather performance information Currently 2 modules available  CoRI Easy  FAST (Martin Quinson’s PhD) Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences Measured Estimated Max. error: 14,7 % Avg. error: 3,8 % Max. error: 14,7 % Avg. error: 3,8 % Extension for parallel program Code analysis / FAST calls combination Allow the estimation of parallel regular routines (ScaLAPACK-like) 17

Data Management  DAGDA Joining task scheduling and data management  Standardized through GridRPC OGF WG.  Data Arrangement for Grid and Distributed Applications Explicit data replication: Using the API. Implicit data replication. Data replacement algorithm:  LRU, LFU AND FIFO Transfer optimization by selecting the more convenient source. Storage resources usage management. Data status backup/restoration. Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences Join work with Gaël LeMahec (UPJV/MIS) 18

 Parallel & sequential jobs transparent for the user system dependent submission  SeD Batch Many batch systems Batch schedulers behaviour Internal scheduling process  Monitoring & Performance prediction  Simulation (Simbatch) Parallel and batch submissions Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences19

Conclusions  Grid-RPC Interesting approach for several applications Simple, flexible, and efficient Many interesting research issues (scheduling, data management, resource discovery and reservation, deployment, fault-tolerance, …)  DIET Scalable, open-source, and multi-application platform Concentration on several issues like resource discovery, scheduling (distributed scheduling and plugin schedulers), deployment (GoDIET and GRUDU), performance evaluation (CoRI), monitoring (LogService and VizDIET), data management and replication (DTM, JuxMem, and DAGDA) Large scale validation on the Grid’5000 platform A middleware designed and tunable for different applications Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences20

Results  A complete Middleware for heterogeneous infrastructure DIET is light to use Dedicated to many applications Designed for Grid and Cloud Efficient even in comparison to commercial tools DIET is high tunability middleware Used in production  SysFera Compagny (11 persons today) Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences21

Outline  MAR Application  Middleware: DIET  Targeted platform: CIMENT  Implementation  Conclusion 22Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences

23

Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences24

Outline  MAR Application  Middleware: DIET  Targeted platform: CIMENT  Implementation  Conclusion 25Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences

Implementation  Write the Client and the DIET Server Workflow support  Application Deployment Compilation of MAR under differents clusters  Foehn  Fontaine  Nanostar  IRODS support  CIGRI support  Web Portail DIET Webboard (old fashion) Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences26 I found a couple of bugs into the DIET workflow engine Conflict on devel environment between DIET (boost, omniORB, etc.) and MAR (netcdf, ifort, etc.) I don’t want the DIET data manager. I want to use IRODS

CIGRI  Cigri is a lightweight grid middleware  Runs on top of a set of OAR clusters (OAR may be coupled with another RMS like PBS or SGE)  Manages ”best-effort” jobs Manages large set of tasks  Cigri v3 is currently under developpment and is supported by Grid'5000 and CIMENT Complete rewrite into Ruby Ability to manage non best-effort, infinite campaigns Will offer a REST API Uses OAR REST API for communication with clusters (no more SSH/SUDO) New ”runner” design : effort to minimize the submission time overhead Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences27 (crédits Bruno Bzeznik)

CIGRI  CIGRI, a light middleware Heterogeneous sites use common administrative rules No heavy auhtentication procedure (ldap acount) No centralised application deployment No centralised data management Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences28 CIGRI

Workflow Management designed for MAR  XML file to describe the the workflow.  Conditional Workflow ($errorCode eq 0) and ($runNumber lt $nbMaxRun)  Fault tolerance: Current state of the workflow is saved automatically diet_wf_save_transcript_file(profile, transcriptFileName) ; Automatic besteffort mode management Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences29

iRODS  iRODS: Data Grids, Digital Libraries, Persistent Archives, and Real-time Data Systems  Distributed storage with iRODS  iRODS is a distributed storage management software for grid computing.  Used into the CIMENT HPC center and the EGI node (LPSC).  CIGRI users are now strongly encouraged to use it for their input/output data and applications deployment.  https :// Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences30

IRODS and DIET  User puts his datas into iRODS  He gets an iRODS identifier (iid)  Submits a computing request with iid through the webboard.  Algorithm Client sends iid to Worker Worker gets datas from iRODS Worker computes the task with given datas Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences31

DIET Webboard: Connection Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences32

DIET Webboard for MARSimulation Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences33

DIET Webboard: MAR Configuration file Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences34

DIET Webboard: Submission Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences35

DIET Webboard: Jobs summary Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences36

DIET Webboard: Download Manager Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences37

Conclusion  Grid deployment of MAR application through DIET  CIGRI support  iRODS support  Webboard designed for application  Discussion: Which model for the next application ? Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences38 users Web Portal Middleware Resources Application Who write the dedicated web interface? Who write the DIET client/server? Who manage the infrastructure and upgrade it? Who develop and maintain application?

Outline  MAR Application  Middleware: DIET  Targeted platform: CIMENT  Implementation  Conclusion 39Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences

Conclusion  Technologies are avaible CIGRI, iRODS, DIET, etc.  Resources are available A regional Grid  More than a regional Grid: A web portal for computing services could be exist…  Many projects (ANR, European project, etc.) used founding to buy resources or to buy resources access but nothing is taken into account for the software layer integration. Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences40

Acknowledgment  Physicists Team Hubert Gallée (LGGE) Christophe Messager (Ifremer, Brest) Hakim Majidi (LGGE)  Statisticians Team Anestis Antoniadis Céline Helbert Clémentine Prieur (INRIA) Laurence Viry (UJF/INRIA)  Computer Scientists Team Bruno Bzeznik (IMAG) Eddy Caron (ENS Lyon) Ibrahima Cissé (SysFera) Benjamin Depardon (SysFera) Florent Rochette (ENS Lyon) Laurence Viry (UJF/INRIA) Modélisation atmosphérique dans un environnement de grille de calcul: Retour d'expériences41