-G N. Melab & E-G. Talbi.

Slides:



Advertisements
Présentations similaires
Réalisé par Frédéric TRAN
Advertisements

CGP2P, école des mines Sous-projet V La participation du LAL au projet CGP2P DataGRID CGP2P.
« Les Mercredis du développement » Les Starter Kits Level 100 Présenté par Pierre Lagarde Relation technique développeur
1 HPC et Windows 2003 CCS pour les développeurs Visual Studio 2005.
HPC et Windows 2003 CCS pour les développeurs
Échanger connaissances et techniques sur les routes et le transport routier 1 The PIARC Website.
Thales Communications
M2: Les parefeux Université Paris II & LRI Michel de Rougemont 1.Quest ce quun parefeu ? 2.Architecture des parefeux.
Data Management for Large-Scale Scientific Computations in High Performance Distributed Systems A. Choudhary, M. Kandemir, J. NoG. Memik, X. Shen, W. Liao,
Data & MetaData Management and Monitoring Metacomputing 4 février 2003 DEA DISIC.
1 Isabelle Attali OASIS INRIA -- CNRS I3S -- UNSA ProActive Users Group, N-Queens Challenge & Grid Plugtests.
Revenir aux basiques !. 1 Revenir aux basiques Processus Nécessité daméliorer la Maîtrise les Offres et Projets: lanalyse des causes racines montre un.
OTB Analog module: Input configuration with TSX PREMIUM (TSXCPP110)
interaction in the .LRN platform
LIFE Fest – Paris – 13/06/ SCORM 2004 et LOMfr dans SCENARI Erik Gebers Université de Technologie de Compiègne Laboratoire HeuDiaSyC – UMR CNRS 6599.
1 Initiatives involving the social partners in Europe on climate change and employment policies Denmark : The experience of the Lindoe Offshore Renewable.
- Couche 7 - Couche application. Sommaire 1)Introduction 1)DNS 1)FTP et TFTP 1)HTTP 1)SNMP 1)SMTP 1)Telnet.
Status report SOLEIL April 2008
Le Grid Computing Par Frédéric ARLHAC & Jérôme MATTERA.
Coopération/Distribution DEA Informatique Nancy. Content 4 Introduction - Overview 4 Coordination of virtual teams : –explicit interaction model –explicit.
Distribution de politiques de sécurité IPsec F. BARRERE - A. BENZEKRI - G.GRASSET - R. LABORDE – Y. RAYNAUDIRIT/SIERA Université Paul Sabatier – Toulouse.
Septembre 2001Y. Schutz - ALICE / WP6 France1 Activités GRILLE dALICE.
Grid France – CC In2p3 – 19/07/2001 Travaux du WP4
TESTBED1 EN FRANCE INFORMATION SERVICE : GIIS France CPPM GIIS IN2P3 CPPM GIIS CEA SACLAY AUTORITE DE CERTIFICATION : UREC avec un administrateur Datagrid.
N. Jacq- LBP/CNRS - DataGrid France - November, 21th, 2001 Avancement du WP10 N. Jacq - LBP/CNRS marianne.in2p3.fr/datagrid/wp10.
MDS 2 Michel Jouvin LAL Pourquoi changer ? Sécurité –MDS non intégré avec GSI –Pas didentification des serveurs ni des utilisateurs.
TP2 ... MVC ? JList JLabel JSlider ImageLibrary Contrôleur Vue Modèle
1 AWAP : Administrable Wireless Access Point Projet de fin détude 2003 Cédric Logeais Mathias Faure.
1 Réunion ANR-CIGC GCPMF 15 mars 2006 Architecture de grille générique, multi- paradigmes et tolérante aux pannes, pour le temps contraint. Application.
Contrôle daccès et qualité de service dans les réseaux basés sur ATM Olivier Paul.
Live Meeting Technique N°3 Thomas LEBRUN – MVP WPF/Silverlight Florent SANTIN – MVP Team System Julien CORIOLAND - MSP.
On-line resource materials for policy making Ex-Ante Carbon-balance Tool Food and Agriculture Organization of the United Nations, FAO Apprendre à utiliser.
Introduction. Windows Azure « Windows » + « Azure » Windows = un OS ? Azure = Késako ? OS : Système d'exploitation Abstraction du matériel Exécution de.
(Nom du fichier) - D1 - 01/03/2000 Le présent document contient des informations qui sont la propriété de France Télécom. L'acceptation de ce document.
Architecture de grille générique, multi-
TM.
Electronic Portfolio/ Portfolio électronique QPAT
Defence Research and Development Canada Recherche et développement pour la défense Canada Canada 11-1.
PRESENTATION POUR LES ELEVES ET PARENTS DE LA CLASSE DE SECONDE
* Google Confidential and Proprietary Khaled KOUBAA Public Policy & Gov't Relations Manager - North Africa Google, Inc. Research, Innovation and Entrepreneurship.
AFNOR NF Z – "Online Consumer Reviews
#JSS2013 Les journées SQL Server 2013 Un événement organisé par GUSS.
Introduction à Node.JS Vincent Peybernes.
Rennes, le 18 septembre 2006 Support du paradigme maître-travailleur dans les applications à base de composants Tâche 2.2 Hinde Bouziane Réunion LEGO.
Magnets fiche projet / project sheet IAFACTORY THE MAGNETIC FACTORY magnets. IAFACTORY | conseil en architecture de linformation | |
TortoiseSVN N°. Subversion : pour quoi faire ? Avoir un espace de stockage commun – Tous les étudiants du SIGLIS ont un espace svn commun Partager vos.
Architecture Logicielle Les supports d’applications
LA COMMUNICATION INTER-API
Networld+Interop – Novembre 2003
Contribution du projet PARIS Christian Pérez Réunion LEGO LIP, ENS Lyon 10 février 2006.
ETL et Data Mining Présenté par : Marc Catudal-Gosselin Université de Sherbrooke automne 2004 automne 2004.
BBoard Fonctionne pas. BBoard Copier le répertoire dézippé dans le répertoire modules de post nuke Renommer ce répertoire en yabbse. Entrer le chemin.
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
14 mai 2003TSTG Barcelona Meeting - Gilbert1 TSTG General Meeting: Configure and Makefile issues Gilbert Grosdidier LAL-Orsay/IN2P3/CNRS & LCG.
Building Bridges in Belgium Dr Marc Bangels Ministry of Public Health Informatics, Telematics & Communication Unit.
Systèmes distribués Le futur des systèmes dinformation est: Networked Diverse Numerous Mobile Ubiquitous Systèmes multiagents Middlewares: CORBA JINI HLA.
Le Baromètre Zone Cours : un environnement pour la micro-évaluation de ressources pédagogiques* Jacques Raynauld Olivier Gerbé HEC Montréal, MATI Montréal.
CLS algorithm Step 1: If all instances in C are positive, then create YES node and halt. If all instances in C are negative, create a NO node and halt.
Les Objets CORBA parallèles Travaux pratiques Lundi 22 mai 2000 ARC « Couplage » Christophe René (IRISA/IFSIC) Eric Lemoine (INSA Lyon)
Commutation de niveau 5 Guillaume CASSIN Charles DESMOULINS 24 Mars 2001.
LEGO – Rennes, 18 Septembre 2006 Un outil de monitoring pour le déploiement dynamique de JuxMem Loïc Cudennec IRISA / INRIA, PARIS project-team Stage de.
Gestion de l'hétérogénéité et des longues distances dans une grille de calcul.
Branche Développement Le présent document contient des informations qui sont la propriété de France Télécom. L'acceptation de ce document par son destinataire.
VTHD PROJECT (Very High Broadband Network Service): French NGI initiative C. GUILLEMOT FT / BD / FTR&D / RTA
KM-Master Course, 2004 Module: Communautés virtuelles, Agents intelligents C3: Collaborative Knowledge construction & knowledge sharing Thierry NABETH.
GDS – Paris, 13 Octobre 2006 Un outil de monitoring pour le déploiement dynamique de JuxMem Loïc Cudennec IRISA / INRIA, PARIS project-team Stage de M2RI.
EGEE is a project funded by the European Union under contract INFSO-RI Copyright (c) Members of the EGEE Collaboration Infrastructure Overview.
Resource allocation: what can we learn from HPC? 20 janvier 2011 Vincent Breton Crédit: Catherine Le Louarn.
Fonctionnement de la grille
Transcription de la présentation:

-G N. Melab & E-G. Talbi

PARAllel and DIStributed Evolving Objects http://paradiseo. gforge ParadisEO EO MO MOEO MPI (LAM, CH) PVM PThreads Projet Européen (Geneura Team, INRIA, LIACS) Parallélisme sur supports dédiés Passage de messages (MPI, PVM) Déploiement sur réseaux de stations Multi-programmation (PThreads) Machines multi-processeurs à mémoire partagée (SMPs) Environnements parallèles et distribués Cluster of SMPs (CLUMPS) Transparence à l’utilisation http://eodev.sourceforge.net Contributions Multi-Objective EO (MOEO) pour la mise en œuvre de l’optimisation multi-objectif Moving Objects (MO) pour les métaheuristiques à solution unique ParadisEO pour les métaheuristiques parallèles hybrides S. Cahon, N. Melab and E-G. Talbi. ParadisEO: A Framework for the Reusable Design of Parallel and Distributed Metaheuristics. Journal of Heuristics, Vol.10(3), ISSN:1381-1231, pages 357-380, May 2004.

ParadisEO-G : ParadisEO sur Globus MO MOEO MPICH-G2 Services Globus GT4 Re-penser le framework pour prendre en compte les caractéristiques des grilles Multi-institutionnelle, hétérogène, volatile, à grande échelle Problèmes : sécurité, performance, tolérance aux pannes, déploiement efficace, etc. Coupler ParadisEO Globus Interface de programmation (MPICH-G2) Services de gestion de ressources et des communications – authentification et autorisation, transfert efficace, information, … N. Melab, S. Cahon and E-G. Talbi. Grid Computing for Parallel Bioinspired Algorithms. Journal of Parallel and Distributed Computing (JPDC), Elsevier Science, Vol. 66(8), Pages 1052-1061, Aug. 2006.

Démarche de gridification de ParadisEO Outil de construction d’une organisation virtuelle qui fournit les services de Globus et MPICH-G2 Mission d’un IR INRIA associé (4 mois) Différentes images système avec des scripts d’installation et post-installation Utilisée au sein de Grid5000 et Naregi Couplage naturel avec ParadisEO car … … même interface entre MPICH et MPICH-G2 Transfert de données efficace entre composants ParadisEO – Différents algorithmes Projet de Master Pro 2 TIIR

Plan La boîte à outils Globus La bibliothèque de communication MPICH-G2 Construction d’une organisation virtuelle Globus Utilisation de ParadisEO-G pour le PSP

Argonne National Laboratory USC Information Sciences Institute The Globus Toolkit™ The Globus Project™ Argonne National Laboratory USC Information Sciences Institute http://www.globus.org

Globus Toolkit™ C’est un toolkit pour la gestion de problèmes techniques pour le … … développement d’outils, services et applications pour les grilles Fournit un “bag of technologies” Fournit une implémentation standard de protocoles et APIs pour les grilles Permet le développement incrémental d’outils et applications pour les grilles Est un toolkit logiciel open source

Architecture en couches Applications High-level Services and Tools DRM Grid Status Cactus MPI globusrun PUNCH Nimrod/G Condor-G Core Services GASS GRAM Metacomputing Directory Service Globus Security Interface Replica Catalog GridFTP I/O Local Services Condor MPI TCP UDP LSF PBS NQE Linux AIX Solaris

Architecture en couches (par analogie à l’architecture d’Internet) Application Network Transport Application Lien Internet Protocol Architecture Collective “Coordination de ressources multiples”: services d’infrastructure, services d’application distribués Ressources “Partage de ressources”: négociation d’accès, contrôle d’utilisation Connectivité “Communication”: communication (protocoles d’Internet) & sécurité We define Grid architecture in terms of a layered collection of protocols. Fabric layer includes the protocols and interfaces that provide access to the resources that are being shared, including computers, storage systems, datasets, programs, and networks. This layer is a logical view rather then a physical view. For example, the view of a cluster with a local resource manager is defined by the local resource manger, and not the cluster hardware. Likewise, the fabric provided by a storage system is defined by the file system that is available on that system, not the raw disk or tapes. The connectivity layer defines core protocols required for Grid-specific network transactions. This layer includes the IP protocol stack (system level application protocols [e.g. DNS, RSVP, Routing], transport and internet layers), as well as core Grid security protocols for authentication and authorization. Resource layer defines protocols to initiate and control sharing of (local) resources. Services defined at this level are gatekeeper, GRIS, along with some user oriented application protocols from the Internet protocol suite, such as file-transfer. Collective layer defines protocols that provide system oriented capabilities that are expected to be wide scale in deployment and generic in function. This includes GIIS, bandwidth brokers, resource brokers,…. Application layer defines protocols and services that are parochial in nature, targeted towards a specific application domain or class of applications. These are are are … arrgh Fabrique “Contrôle local”: contrôle et accès aux ressources

Ressources partagées … La couche Fabrique Ressources partagées … Ordinateurs individuels, pools Condor, systèmes de fichiers, archives, catalogues de meta-données, réseaux, capteurs, etc. … définies par des interfaces et non pas par des caractéristiques physiques

La couche Connectivité Communication Protocoles d’Internet : IP, DNS, routage, etc. Sécurité: Grid Security Infrastructure (GSI) Authentification, autorisation, mécanismes de protection de messages dans un environnement multi-institutionnel Public key technology, SSL, X.509, GSS-API Supporting infrastructure: Certificate Authorities, certificate & key management, … GSI: www.gridforum.org/security

La couche Ressources Grid Resource Allocation Management (GRAM) Allocation à distance, réservation, monitoring, contrôle de ressources de calcul Protocole GridFTP (extensions de FTP) Accès à et transport de données haute performance Grid Resource Information Service (GRIS) Accès à l’information de structure et d’état des ressources Réservation réseau, monitoring, contrôle GridFTP: www.gridforum.org GRAM, GRIS: www.globus.org

La couche Collective Serveurs d’index et services de meta-données Courtiers de ressources (ou resource brokers) (ex., Condor Matchmaker) Découverte et allocation de ressources Services de réplication et catalogues de réplicas Services de co-réservation et co-allocation Services de gestion de workflows, … Condor: www.cs.wisc.edu/condor

Pour plus d’information … Globus Project™ www.globus.org Grid Forum www.gridforum.org Livre (Morgan Kaufman) www.mkp.com/grids

Plan La boîte à outils Globus La bibliothèque de communication MPICH-G2 Construction d’une organisation virtuelle Globus Utilisation de ParadisEO-G pour le PSP

Architecture de MPICH

MPICH-G2 L’environnement grille MPICH-G2 permet … Authentification et autorisation (GSI) Transfert d’exécutables entre sites (GASS) Systèmes et politiques d’ordonnancement différents (GRAM – ordonnanceurs locaux) Allocation de ressources sur différents sites (DUROC+GRAM) Méthodes de communication différentes (MPI ou Globus IO) MPICH-G2 permet … … de cacher l’environnement de la grille … d’utiliser les services fournis par Globus

Comment MPICH-G2 marche (1) (GSI) (fichier RSL) GSI: Grid Security Infrastructure GASS: Global Access to Secondary Storage MDS: Monitoring and Directory Service GRAM: Grid Resource Allocation and Management DUROC: Dynamically-Updated Request Online Co-allocator RSL: Resource Specification Language

Comment MPICH-G2 marche (2) Authentification (grid-proxy-init) Obtenir un certificat permettant l’accès aux ressources de chaque domaine d’administration (site) Appel à GSI Sélection de ressources avec MDS Génération manuelle ou avec mpirun d’un script RSL Un script par site Spécification de ressources (processeurs, …) et besoins (CPU, mémoire, …) et paramètres (localisation des exécutables, variables d’environnement , ….)

Comment MPICH-G2 marche (3) Appel à DUROC Déploiement à l’aide de scripts RSL des tâches de l’application en utilisant des appels à GRAM Déploiement de tâches avec GRAM Chargement éventuel d’exécutables  GASS Communication entre processus via Globus IO ou autre

Exécution d’applications MPICH-G2 Avant installation … … l’utilisateur doit avoir accès à Globus Compilation et exécution … Compilation of MPICH-G2 based application is complete % mpirun -dumprsl -np 12 ring RSL script to stdout % mpirun -globusrsl my.rsl mpirun invokes globusrun + (&(resourceManagerContact="sdd113") (count=12) (label="subjob 0") (environment= (GLOBUS_DUROC_SUBJOB_INDEX 0)) (directory="/home/voxel") (executable="/home/voxel/ring") ) <skip>

Plan La boîte à outils Globus La bibliothèque de communication MPICH-G2 Construction d’une organisation virtuelle Globus Utilisation de ParadisEO-G pour le PSP

A Master-Worker Globus VO Master node contains the … … Certification Authority … Monitoring and Discovery System (MDS) and has users credentials Each slave node has … … a Globus environment ready to be activated … and MDS service activated … a GRAM for local jobs submission (fork) … RFT and GridFTP activated … a Security service activated

Globus deployment overview (1) Reservation tool I want 20 nodes Frontal

Globus deployment overview (2) Reservation tool node-1 node-4 … node-x Frontal

Globus deployment overview (3) Reservation tool Globus image Frontal griddeploy node-1 node-4 … node-x

Globus deployment overview (4) Reservation tool Globus image Master Frontal griddeploy node-1 node-4 … node-x

Globus deployment overview (5) Reservation tool Globus image Master Frontal griddeploy node-1 node-4 … node-x

Globus deployment overview (6) Reservation tool slave slave slave slave slave Master slave slave user data Frontal slave slave slave slave slave slave slave slave slave slave slave slave

Globus data transfer overview (1) Reservation tool slave slave slave slave rft –h node-11 –f transfer.xfr slave Master slave slave user data Frontal slave slave slave slave slave slave slave slave slave slave slave slave

Globus data transfer overview (2) Reservation tool slave slave slave slave user data slave Master slave slave user data user data Frontal slave slave user data slave user data slave slave slave slave slave user data slave slave slave slave user data

Globus (mutlitple) job soumission overview (1) slave Master Frontal Reservation tool user data globusrun-ws -submit -J -S -f multi.rsl

Globus (mutlitple) job soumission overview (2) slave Master Frontal Reservation tool user data globusrun-ws -submit -J -S -f multi.rsl

Plan La boîte à outils Globus La bibliothèque de communication MPICH-G2 Construction d’une organisation virtuelle Globus Utilisation de ParadisEO-G pour le PSP

RoadMap to run the experiment (interactive mode) I. Prepare the Grid Reserve nodes … oargridsub -q deploy -w 08:00:00 lille:nodes=10,bordeaux:nodes=10,sophia:nodes=20 … and store nodes in a file: oargridstat -l 1879 > mynodes Deploy the globus Image on all sites with this command: griddeploy.sh mynodes globus4 Choose a master node (anyone), then transfer the file containing the list of nodes on the master scp mynodes root@<MASTER>: … and finally log in as root on the master and run: # ./globus/install.sh mynodes [OAR_GRIDSUB] Reservation success on lille : batchId = 1995, nbNodes = 10, weight = 0, properties = "", queue = deploy [OAR_GRIDSUB] Reservation success on bordeaux : batchId = 14615, nbNodes = 10, weight = 0, properties = "", queue = deploy [OAR_GRIDSUB] Reservation success on sophia : batchId = 146084, nbNodes = 20, weight = 0, properties = "", queue = deploy [OAR_GRIDSUB] Grid reservation id = 1879

RoadMap to run the experiment (interactive mode) II. Run the experiment Transfert data to a globus node: scp –r frontale.lille.grid5000.fr:<your_data_dir> . Dump a job description file (RSL): mpirun -dumprsl -np <processor_number> <my_prog> <my_arguments> > <my_prog>.rsl cat <my_prog>.rsl | sed -e 's|(executable="\(.*\)")|(executable=$(GLOBUSRUN_GASS_URL)\1)|g' > test.rsl In our example : mpirun -dumprsl -np 40 para_ga @tsp.param para_ga.rsl cat para_ga.rsl | sed -e 's|(executable="\(.*\)") | (executable=$(GLOBUSRUN_GASS_URL)\1)|g' > test.rsl The second line with sed substitutions is only necessary to stage in your data (including binary) if they are not present on each node (you can transfer it with RFT for instance). In batch mode, all this stuff is automatically done for you

Plan La boîte à outils Globus La bibliothèque de communication MPICH-G2 Construction d’une organisation virtuelle Globus Utilisation de ParadisEO-G pour le PSP

Deployment of ParadisEO-G4 Lille, Nice-Sophia Antipolis, Lyon, Nancy, Rennes: 400CPUs Non-preemtive reservation – no interference may occur; the processor are completely available during the reservation time. CLUSTER A 1. Reserve a pool of nodes 2. Select a master node for the Globus GRID 3. Configure the Globus GRID (certificates, user credentials, xinetd, postgresql, etc.) M6 M4 4. Deploy and execute – MPICH-G2 M5 CLUSTER C CLUSTER B M2 M2 M3 M3 GRID5000: A fully reconfigurable grid! The configuration phase relies on the deployment of pre-built Linux « images » having Globus and MPICH-G2 already installed.