République Algérienne Démocratique et Populaire

Slides:



Advertisements
Présentations similaires
Speedup Prediction for Selective Compilation of Embedded Java Programs
Advertisements

Placement de Motifs Architecture Application Contraintes: - Charge
Frédéric Gava JFLA2006 Une implantation de la juxtaposition parallèle.
Sous-projet IV Communications Placement/Ordonnancement.
A NETWORK-AWARE DISTRIBUTED STORAGE CACHE FOR DATA INTENSIVE ENVIRONMENTS Brian L. TIERNEY, Jason LEE, Brian CROWLEY, Mason HOLDING Computing Sciences.
PLAN du COURS Introduction Structure des Systèmes Informatiques
Journées franciliennes 2006 Moussa ELKIHEL (LAAS-CNRS;UPS Toulouse )
Simultaneous Registration and Activation Detection for fMRI
Modèle de coût algorithmique intégrant des mécanismes de tolérance aux pannes Samir Jafar, Thierry Gautier, Jean Louis Roch Laboratoire ID-IMAG Equipe.
Informatique parallèle hautes performances
Modèle polyédrique: fondements et application à la parallélisation de programmes réguliers Tanguy Risset DIF 2001/2002.
Synthèse Haut Niveau de Circuits
Programmation graphique du processeur CELL : Faciliter la programmation T. Grandpierre.
Répétitives sur une architecture régulière embarquée
Jean-Laurent Hippolyte
Ordonnancement des activités de télémaintenance
Introduction aux Grilles de Calcul
30/03/2017 Formation Plan 1.
LES AUTRES MÉTHODES D’ORDONNANCEMENT
Restriction daccès aux logiciels et aux matériels Problème de licence Nicolas CHABANOLES Matière : SRR Lieu: UFRIMA.
Architecture de grille générique, multi-
Architectures et systèmes à microprocesseurs – ELEC288
Support d'adaptation dynamique pour le modèle de composants PauWare
Noyau persistant en réseaux pair-à-pair Comment relier la taille à la durée de vie V. Gramoli, A-M. Kermarrec, A. Mostéfaoui, M. Raynal, B. Sericola.
Rennes, le 18 septembre 2006 Support du paradigme maître-travailleur dans les applications à base de composants Tâche 2.2 Hinde Bouziane Réunion LEGO.
Informatique temps réel et réseaux de terrain – ELEC365
Sélection et ordonnancement parallèle simultanés pour la conception de processeurs spécialisés Journées compilation – Dinard, 28 Avril 2011 Antoine FLOCH.
Franck Cappello CNRS, LRI, Université Paris-sud
Systèmes Superscalaires et VLIW
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
Projet région Thématique prioritaire n°10 Calculs Scientifiques Logiciels Rhône-Alpes : Grille pour le Traitement dInformations Médicales (RAGTIME ?)
Parallel Programming in C with MPI and OpenMP
Parallel Programming with MPI and OpenMP Michael J. Quinn.
Détection du meilleur format de compression pour une matrice creuse dans un environnement parallèle hétérogène Olfa HAMDI-LARBI.
Pr ZEGOUR DJAMEL EDDINE Ecole Supérieure dInformatique (ESI) Plate-forme.NET.
Alessandro de Luna Almeida
Qu’est-ce qu’un système d’exploitation ?
VIP et GATE-Lab : retour d’expérience
8INF856 Programmation sur architectures parallèles
Exposé du 26/03/2010 Michaël Le Clerc & Nicolas Le Texier Mires Un intergiciel pour les réseaux de capteurs.
Energy optimization in a manufacturing plant Journée GOThA Ordonnancement avec contraintes d’énergie et/ou de ressources périssables LAAS-CNRS Toulouse.
Optimisation de requêtes
Un outil d’estimation du temps d’exécution au pire-cas par analyse statique de programmes IRISA - Projet Solidor Antoine COLIN.
Journées d'études Faible Tension Faible Consommation 14, 15, 16 mai Gwenolé CORRE, Nathalie JULIEN, Eric SENN, Eric MARTIN LESTER, Université de.
Étude d’un protocole de partage de travail entre systèmes Pair à Pair
Adapting to changing resource performance in grid query processing Anastasios Gounaris Jim Smith Norman W. Paton Paul Watson Rizos Sakellariou University.
PARALLÉLISATION AUTOMATIQUE D’ALGORITHMES
Présentation générale du projet
Décomposition de graphes pour la reconstruction de réseaux phylogénétiques V. Berry (MAB) et C. Paul (VAG, HdR) Candidat AMN : Philippe Gambette (LIAFA)
Ordonnancement d’applications intensives embarquées sur GPUs
Introduction aux solutions Microsoft pour le HPC.
1 Programmation en C++ Marianne Morris. 2 Intro générale à la programmation On a déjà étudié le langage assembleur Langage de bas niveau Meilleur que.
Distributed Planning Distributed Problem Solving, motivations, strategies. Distributed Planning : Centralized planning for distributed plans. Distributed.
ACI Masses de Données Bilan GDS Regal (LIP6 / INRIA)
Reconnaissance de visage par vidéo
Optimisation pour la Conception de Systèmes Embarqués
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
PROJET CAPS Compilation, Architecture, Parallélisme et Système.
GREDOR - GREDOR - Gestion des Réseaux Electriques de Distribution Ouverts aux Renouvelables How to plan grid investments smartly? Moulin de Beez, Namur.
Exposé du 03/05/2010 Michaël Le Clerc & Nicolas Le Texier Mires Etude comparative.
1 Journee gdr COSMAL 27/01/2009 Exécution Distribuée et Agile de Compositions de Services Françoise Baude & Virginie Legrand
21/02/2003DEA DISIC 1 Grid Computing Programming the grid: Distributed Software Components, P2P and Grid Web Services for Scientific Applications Tarak.
1. Introduction 2. Les réseaux sur puce NOC 3. Conception des SOC
Persistance de noyau dans les systèmes dynamiques à grande échelle
Introduction aux architectures parallèles
Parallel Programming in C with MPI and OpenMP
30/11/2007Architecture logicielle pour l’adaptation dynamique; Application à la réplication de données1 Architecture logicielle pour l’adaptation dynamique.
Grilles de recherche Veronique Donzeau-Gouge. 2 objectifs Renforcer la présence du CNRS dans ce domaine en liaison avec : L’Institut ST2I L’INRIA, Les.
GPU sous LabVIEW eTIG_OOP_ Plan de la présentation 1.Frameworks OOP référencés 2.Performances d’accés 3.Performances de compilation 4.Erreurs.
University : Ammar Telidji Laghouat Faculty : Technology Department : Electronics 3rd year Telecommunications Professor : S.Benghouini Student: Tadj Souad.
Transcription de la présentation:

République Algérienne Démocratique et Populaire Réalisé par: Melle ADDA CHAHRAZED Les algorithmes d’ordonnancent dynamique et statique dans un environnement hétérogène Encadrée par: Mrs LOUKIL, BOULET, BENYAMINA 13/04/2017

Plan de la présentation 1. INTRODUCTION 2. LES TRAVAUX 13/04/2017

1. TNTRODUCTION Ordonnancement efficace des tâches une performances élevée l'hétérogénéité des processeurs et les surcoûts élevés de la communication entre les processeurs un ordonnancement des tâches efficaces Un système de calcul distribué, ou DCS, est un groupe de processeurs reliés par l'intermédiaire d'un réseau à haut débit qui prend en charge l'exécution d'applications parallèles. 13/04/2017

1. TNTRODUCTION L'efficacité de l'exécution d'applications parallèles sur DCS La méthode utilisée pour ordonnancée les tâches les processeurs disponibles. 13/04/2017

1. TNTRODUCTION Tous les systèmes de bureau Un système hétérogène Un système hétérogène Un système hétérogène CPU et GPU CPU et GPU 13/04/2017

Les algorithmes d'ordonnancement 1. TNTRODUCTION statique et dynamique Les algorithmes d'ordonnancement exécutés avant l’ exécution de l’application Placement et ordonnancement statique : les affectations et les ordonnancements pendant l’exécution de l’application Placement et ordonnancement dynamique: Le surcharge: communication entre processeurs 13/04/2017

2. LES TRAXAUX [1] : Ahigh performance algorithm for static task scheduling in heterogeneous distributed computing systems Mohammad I. Daoud, Nawwaf 2009 Graphe de tache & Graphe d’architecture algorithme d’ordonnancement des taches longest dynamic critical path (LDCP) (liste de priorité de taches) sélection du processeur sélection de tâche La mise à jour 13/04/2017

2. LES TRAXAUX Critères LDCP HEFT [2] DLS [3] accélération Très élavée Moyenne amélioration de la performance Augmentation par rapport les algorithmes HEFT et DLS [2] H. Topcuoglu, S. Hariri, M.Y. Wu, Performance-effective and low complexity task scheduling for heterogeneous computing, IEEE Trans. Parallel Distributed Systems 13 (3) (2002) 260–274. [3] G.C. Sih, E.A. Lee, A compile-time scheduling heuristic for interconnection-constrained heterogeneous processor architectures, IEEE Trans. Parallel Distributed Systems 4 (2) (1993) 175–187. HEFT= heterogeneous earliest finish time DLS= dynamic level scheduling 13/04/2017

2. LES TRAXAUX MCP= modified critical path [04] MH=[mapping heuristic] [05] DCP =dynamic critical path] [06] . LMT =temps min actualisé [07] CPOP=critical path on a processor] [08] [14] M. Wu, D. Dajski, Hypertool: a programming aid for message passing systems, IEEE Trans. Parallel Distributed Systems 1 (3) (1990) 330–343. [05] H. El-Rewini, T.G. Lewis, Scheduling parallel program tasks onto arbitrary target machines, J. Parallel Distributed Comput. 9 (2) (1990) 138–153. 13/04/2017

2. LES TRAXAUX [06] Y.K. Kwok, I. Ahmad, Dynamic critical-path scheduling: an effective technique for allocating task graphs to multiprocessors, IEEE Trans. Parallel Distributed Systems 7 (5) (1996) 506–521. [07] S. Baskiyar, C. Dickinson, Scheduling directed a-cyclic task graphs on a bounded set of heterogeneous processors using task duplication, J. Parallel Distributed Comput. 65 (8) (2005) 911–921. [08] J. Kim, J. Rho, J.-O. Lee, M.-C. Ko, CPOC: effective static task scheduling for grid computing, in: Proceedings of the 2005 International Conference on High Performance Computing and Communications, Italy, 2005, pp. 477–486. 13/04/2017

2. LES TRAXAUX [9 ]Predictive Runtime Code Scheduling for Heterogeneous Architectures Victor J. Jim_enez1, Lluis Vilanova2, Isaac Gelado2, Marisa Gil2, Grigori Fursin3, and Nacho Navarro21 Barcelona Supercomputing Center (BSC) 2 Departament d'Arquitectura de Computadors (UPC)3 ALCHEMY Group, INRIA Futurs and LRI, Paris-Sud University 2009 Graphe de tache & Graphe d’architecture algorithme d’ordonnancement des taches history-gpu et estimate-hist. deux sont basés sur l'algorithme performance History scheduling 13/04/2017