MPICH-Vcl vs MPICH-Pcl

Slides:



Advertisements
Présentations similaires
Sous-projet IV Communications Placement/Ordonnancement.
Advertisements

Gabriel Antoniu IRISA / INRIA Rennes
Jean-François Deverge, Sébastien Monnet
 Grand Large Tolérance automatique aux défaillances par points de reprise et retour en arrière dans les systèmes hautes performances à passage de message.
Gestion de l'hétérogénéité et des longues distances dans une grille de calcul.
Gestion de la concurrence avec Entity Framework Développement d’application avec base de données Chapitre 23 Hugo St-Louis – Automne 2015.
Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
Vendredi 23 mars 2007 Le CC-IN2P3 Un instrument informatique de pointe au service de la recherche.
INFSO-RI Enabling Grids for E-sciencE Statistiques d'usage d'un site de la grille LCG/EGEE Emmanuel Medernach, IN2P3 LPC.
Evolution des services Retour sur les incidents récents: Disfonctionnements cluster SUN (répertoires disques) : – Incidents et actions réalisées Disfonctionnements.
Jeudi 8 Février 2007 REMISE DES PRIX de la Fondation Louis Leprince Ringuet Conception et évaluation d’un algorithme de tolérance aux fautes par points.
Marid 5 décembre 2006Présentation du code parallèle – PEGASE – INRIA Sophia-Antipolis 1 Code Parallèle pour la Simulation Numérique en Mécanique des Fluides.
Gestion des données issues des réseaux de mesures de la qualité : densification et besoin de flexibilité SIG, Géo-traitements.
Le système Raid 5 Table des matières Qu'est ce que le RAID ? Les objectifs Le raid 5 Les avantages et les inconvénients Les composants d’un Raid.
INFSO-RI Enabling Grids for E-sciencE L’activité EGEE au CINES Nicole Audiffren, Adeline Eynard et Gérard Gil Réunion de la fédération.
Fonctionnement interne d'un routeur (kurose p ) Eugen Dedu IUT Belfort-Montbéliard, R&T1, France avril 2009.
La plate-forme Luke B.Bzeznik / F. Roch Journées Utilisateurs CIMENT 05/05/2015.
1 Intergiciel pour l'exécution efficace et fiable d'applications distribuées dans les grilles dynamiques de très grande taille Emmanuel Jeanvoine EDF R&D,
Windows NT/2000/XP Enjeux et contraintes techniques
Architecture des ordinateurs, Environnement Numérique de Travail
Communication client-serveur
Introduction aux Systèmes de Gestion de Bases de données
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
Les P G I Les Progiciels de Gestion Intégrés
6GEN720 Réseaux d’ordinateurs
Utilisation de PostgreSQL
La transparence réseau dans KDE
Javadoc et débogueur Semaine 03 Version A17.
Algorithmes distribués
Journée Analyse D0, 19 janvier 2004
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
Master Réseaux et Systèmes Distribués (RSD)
Clients riches RIA (Rich Internet Application) / RDA
Centralisation de logs
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
Outils Statistiques pour la Sémantique Décembre 2013
C. Loomis (LAL-Orsay) Tutorial EGEE Utilisateur (LAL) 2 février 2007
MATLAB sur la grille C. Loomis (LAL-CNRS)
Classification des archtecutres paralleles
Fonctionnement de la grille
le plan de continuité d’activité ( le pca )
Daniel JOUVENOT Laboratoire de l’Accélérateur Linéaire (LAL–ORSAY)
Système flexible de Workflow pour la plate-forme Motu
Internet – s 3 choses à toujours garder en tête concernant internet:
Présentation du Service Informatique
HATRY Emmanuel TALIDEC Sebastien DENIS Maxime
Les centres d’analyse: introduction
Cours 8 5. Appels de fonctions Le matériel Concepts de pile
PROGRAMMATION INFORMATIQUE D’INGÉNIERIE II
HATRY Emmanuel TALIDEC Sebastien DENIS Maxime
Internet C'est quoi ? Comment ça marche ? Fenêtre sur le monde
Gestion des fichiers Niv2
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
Architecture des ordinateurs
Introduction à la Grille
Olivier Glück UPMC/LIP6/ASIM
18 Bases de données parallèles et réparties
Xtremweb : une plate-forme de calcul global et pair a pair
"Interprétation matérielle de temps multi-dimensionnel "
Introduction à GENIUS et GILDA
Bilan de projet pour [Nom du projet]
Luc-Michel Demey Demey® Consulting
Formation SpeechExec Enterprise Dictate
Cours 8 5. Appels de fonctions Le matériel Concepts de pile
Formation SpeechExec Enterprise Transcribe
Encadré par : M. Mohammad EL GHABZOURI Elaboré par : - AZEGAMOUT Mohamed - ABOULKACEM abdelouahed - GOUN Ayoub EXPOSÉ Sous le thème : SER 2018 Parallélisme.
Notions d'architecture client-serveur. Présentation de l'architecture d'un système client/serveur Des machines clientes contactent un serveur qui leur.
REPLICA Hyper-V Comme solution à un PRA
Modélisation et simulation avec Matlab + Simulink.
Transcription de la présentation:

MPICH-Vcl vs MPICH-Pcl Camille Coti, Thomas Herault, Pierre Lemarinier, Laurence Pilard, Ala Rezmerita, Eric Rodriguez, Franck Cappello Journées GDX, 13/10/06

Plan Tolérance aux fautes Pourquoi Comment Retour sur points de reprise coordonnés Implémentation bloquante Implémentation non bloquante Performances Grande échelle Cluster Cluster à communications rapides

MPI Message Passing Interface MPICH, OpenMPI, LAM/MPI, FT-MPI... MPI_Send(...) MPI_Recv(...) MPICH, OpenMPI, LAM/MPI, FT-MPI... MPI1:1994 MPI2:1997

Checkpointing Niveau système Niveau utilisateur Serveur de checkpoints Pile, registres, VM Volumes importants de données Niveau utilisateur Variables + PC Volumes moins importants Sérialisation explicite Serveur de checkpoints support stable stocke et restitue les checkpoints

In distributed systems État de l'art Automatic Non Automatic coordinated based Log based Coordinated checkpoint Pessimistic log Causal log Optimistic log Cocheck Independent of MPI Framework Optimistic recovery In distributed systems coherent checkpoint Manetho Starfish Enrichment of MPI Clip Semi-transparent checkpoint FT-MPI Modification of MPI routines User Fault Treatment MPI/FT Redundance of tasks Egida LAMMPI MPI-FT Centralized server Pruitt 98 API Communication Lib. MPICH-V Sender based Mess. Log. Level

MPICH-V Architecture : Checkpoint scheduler : permet de faire le garbage quand un checkpoint est pris Checkpoint server : stocke les checkpoints Dispatcher : sert au lancement de l'application

Plan Tolérance aux fautes Pourquoi Comment Retour sur points de reprise coordonnés Implémentation bloquante Implémentation non bloquante Performances Grande échelle Cluster Cluster à communications rapides

MPICH-Pcl Implémentation bloquante de Chandy-Lamport Circulation de marqueurs Synchronisation Reprise de l'exécution une fois que tous les checkpoints ont été pris

MPICH-Vcl Implémentation non bloquante de Chandy- Lamport Enregistrement de messages L'exécution ne s'arrête pas Pas de synchronisation sur l'ensemble du système

Plan Tolérance aux fautes Pourquoi Comment Retour sur points de reprise coordonnés Implémentation bloquante Implémentation non bloquante Performances Grande échelle Cluster Cluster à communications rapides

Expérimentations Benchmarks Plate-forme NAS Parallel Benchmarks (NASA) CG BT Plate-forme Grid'5000 Plate-forme expérimentale Grille Cluster à communication rapides (Myrinet) GdX Cluster à grande échelle

Expérimentations sur grille À grande échelle Avec Pcl, l'exécution s'arrête pour prendre les checkpoints et ne reprend qu'une fois la vague terminée. Synchronisation trop coûteuse avec Pcl

Cluster Gigabit Ethernet Sur grappe de PC Dû au caractère bloquant ou non bloquant. Avec Vcl, les communication et la prise de ckpt sont en compétition. Avec Pcl, l'exécution s'arrête le temps de prendre de ckpt. Plus il y a de CS plus la prise de ckpt va vite, et plus l'exécution peut reprendre rapidement. Nombre de CS : Pcl scalable, pas Vcl

Cluster Myricom2000 Grappe à réseau à hautes performances À fréquence de ckpt trop élevée, Pcl moins performant car coût de la synchronisation. Mais ces fréquences ne sont pas réalistes (qqes 10s secondes). Temps d'exécution fonction linéaire du nb de vagues de checkpoints pour Pcl : une vague prend toujours le même temps, et les communications ne sont pas en concurrence avec la prise de ckpt. Surcoût dû aux copies de Vcl

Apports Apport de GdX Apport de Grid'5000 Apport de Kadeploy Expérience de cluster à grande échelle Apport de Grid'5000 Grille Réseau rapide à Bordeaux Apport de Kadeploy Utilisation de la librairie BLCR

Vcl vs Pcl : conclusion Pcl n'est pas adapté à un contexte de grille Synchronisation trop coûteuse Compétition messages / transferts de checkpoints Dans Pcl : pas de compétition Dans Vcl : compétition donc ralentissement Pcl : temps d'exécution fonction linéaire du nombre de vagues de checkpoints Message-logging de Vcl coûteux sur Myrinet

Travaux futurs Vers des protocoles plus adaptés aux grilles GdX2 Évaluation des protocoles pour clusters Conception de protocoles spécifiques (hiérarchiques ?) GdX2 Réseau rapide à grande échelle