La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Parallélisme et grappes d’ordinateurs Olivier Aumage LIP, ENS Lyon.

Présentations similaires


Présentation au sujet: "Parallélisme et grappes d’ordinateurs Olivier Aumage LIP, ENS Lyon."— Transcription de la présentation:

1 Parallélisme et grappes d’ordinateurs Olivier Aumage LIP, ENS Lyon

2 Introduction Calcul haute performance Parallélisme

3 Une forte demande en puissance de calcul simulation et modélisation météo, climatologie chimie traitement des signaux images sons analyse de données génomes fouille de données en puissance de traitement bases de données serveurs multimédia Internet

4 Une forte demande en puissance de calcul simulation et modélisation météo, climatologie chimie traitement des signaux images sons analyse de données génomes fouille de données en puissance de traitement bases de données serveurs multimédia Internet

5 Une forte demande en puissance de calcul simulation et modélisation météo, climatologie chimie traitement des signaux images sons analyse de données génomes fouille de données en puissance de traitement bases de données serveurs multimédia Internet

6 Le parallélisme une tentative de réponse « l’union fait la force » > gauss

7 Le parallélisme une tentative de réponse « l’union fait la force » > gauss

8 Plusieurs niveaux machines architectures distribuées

9 Plusieurs niveaux machines architectures distribuées processeurs machines multi-processeurs

10 Plusieurs niveaux machines architectures distribuées processeurs machines multi-processeurs Pentium IV

11 Plusieurs niveaux machines architectures distribuées processeurs machines multi-processeurs unités de calcul processeurs superscalaires

12 Plusieurs niveaux machines architectures distribuées processeurs machines multi-processeurs unités de calcul processeurs superscalaires processus multi-programmation temps partagé

13 Plusieurs niveaux machines architectures distribuées processeurs machines multi-processeurs unités de calcul processeurs superscalaires processus multi-programmation temps partagé threads multi-programmation à grain fin

14 Plusieurs approches machines à mémoire partagée > gauss

15 Plusieurs approches machines à mémoire distribuée > gauss

16 Plusieurs approches machines hybrides : Non-Uniform Memory Access (NUMA) > gauss

17 Contexte Historique Évolutions récentes

18 Matériel Début des recherches en parallélisme Machines peu fiables Coût extrêmes Logiciel Peu de chercheurs ont accès aux premiers supercalculateurs Peu de recherche Illiac-IV

19 Matériel Production commerciale de supercalculateurs Cray-1 (1976) Cray X-MP (1982) Recherche très active Calcultateurs massivements parallèles Hypercubes Utilisation de microprocesseurs Logiciel Les problèmes apparaissent La programmation parallèle est trop difficile Cray X-MP

20 Évolutions récentes Matériel Fort retrait des supercalculateurs entre 1990 et 1995 Nombreuses faillites Rachat de sociétés Disparition des architectures originales Micro-informatique Micro-processeurs rapides Réseaux haut débit/faible latence de plus en plus répandus Configurations PC/stations puissantes Logiciel Nécessité d’outils Compilateurs paralléliseurs Débogueurs Bibliothèques Essentiel des efforts de recherche

21 Pourquoi un tel déclin ? Peut-être un manque de réalisme Faible demande en supercalculateurs Coût d’achat et d’exploitation trop élevés Obsolescence rapide Viabilité des solutions pas toujours très étudiée Difficultés de mise au point Solutions dépassées dès leur disponibilité Une utilisation peu pratique Systèmes d’exploitation propriétaires Difficulté d’apprentissage Manque ou absence d’outils Difficulté d’exploitation

22 Objectifs Cahier des charges pour une machine parallèle

23 Objectifs économiques Acquisition Coût limité par rapport aux supercalculateurs Rapport puissance/coût élevé Exploitation Ergonomie Fiabilité Facilité de maintenance Scalabilité Evolutivité

24 Objectifs techniques Solutions non-propriétaires Nœuds à base d’ordinateurs personnels Systèmes d’exploitation classiques Linux, systèmes BSD, Solaris Windows NT Composants non-propriétaires Processeurs Intel / AMD (x86), DEC (Alpha), Motorola (PPC) Réseaux Ethernet, Myrinet, SCI, Giganet

25 Grappes d’ordinateurs Concepts et idées

26 Principes généraux Structure d’une grappe Grappe

27 Principes généraux Structure d’une grappe Un ensemble de machines Des PC du commerce Grappe Dell PowerEdge 2550

28 Principes généraux Structure d’une grappe Un ensemble de machines Des PC du commerce Un réseau classique Lent Réservé à l’administration Réseau lent Grappe

29 Principes généraux Structure d’une grappe Un ensemble de machines Des PC du commerce Un réseau classique Lent Réservé à l’administration Un réseau rapide Temps de transfert réduit Débit élevé Réservé aux applications Réseau rapide Réseau lent Grappe

30 Machines Quantité Grappes classiques 8, 16, 32 machines Grandes grappes Plusieurs centaines Processeur Nombre 1 ou 2 Type Pentium III/IV Athlon Autres : Alpha, Sparc Fréquence 1 GHz = Hertz Mémoire Taille 1 Go = octets Icluster (grappe de 100 pc, Grenoble)

31 Communications Réseaux rapides Grande fiabilité Faible latence Quelques µs Réactivité Haut débit 100 ~ 1000 Mbit/s Gros volumes Carte de communication Myricom Fibre optique

32 Comparatif Cray T3E

33 Conclusion Et alors ?

34 Conclusion L’informatique du parallélisme évolue vers plus de pragmatisme La programmation parallèle est difficile Il est inutile de compliquer la situation avec des machines complexes Utilisation de matériels simples et fiables (grappes) Il est en revanche important d’encadrer le programmeur Développement d’outils Développement de techniques Un thème de recherche actif à tous les niveaux Architecture Système Informatique théorique

35 Évolution et perspectives Et maintenant ?

36 De nouvelles approches Grappes de grappes L’étape suivante Métacomputing Parallélisme à grande échelle Global-computing Projets de type SETI-at-home Exploitation des ressources inutilisées

37 A vous de jouer Where do you want to go today ???

38

39 Plusieurs niveaux machines architectures distribuées processeurs machines multi-processeurs unités de calcul processeurs superscalaires processus multi-programmation temps partagé threads multi-programmation à grain fin

40 Communications Réseaux rapides Grande fiabilité Faible latencequelques µs réactivité Haut débit100 ~ 1000 Mbit/s gros volumes Interfaces et bibliothèques de communication adaptées Fonctionnalités minimales Contrôle direct en mode utilisateur Transferts zéro-copie

41 Plusieurs approches parallélisme de contrôle multi-programmation pipelines architectures superscalaires parallélisme de données parallélisme massif, machines de type PRAM processeurs vectoriels langages data-parallèles

42 (Fast|Giga)-Ethernet Interconnexion Hub ou switch Câblage Cuivre ou fibre optique Latence ~20 µs Débit 100 Mb/s et 1Gb/s Note Compatibilité avec l’Ethernet classique Hub Switch

43 Myrinet Société Myricom Interconnexion Switch Câblage Nappes courtes Cartes équipées d’un processeur Latence 1~2 µs Débit 1 Gb/s Note Durée de vie limitée des messages (50 ms) LANai

44 SCI Scalable Coherent Interface Norme IEEE (1993) Société Dolphin Fonctionnement par accès mémoire distants Projections d’espaces d’adressage Machine AMachine B Réseau SCI Mémoire Bus PCI

45 Interfaces Initialisation Réservée au système Uniquement en début de session Transferts Directs depuis l’espace utilisateur Pas d’appels systèmes Pas de transitions Transmissions zéro-copie Interface Programme Réseau Système Espace utilisateur Transferts Initialisation

46 BIP Basic Interface for Parallelism L. Prylli et B. Tourancheau Dédiée aux réseaux Myrinet Caractéristiques Transmission asynchrone Pas de contrôle de flux Pas de détection d’erreur

47 VIA Virtual Interface Architecture Tentative de standardisation Beaucoup d’industriels impliqués Caractéristiques Principe d’interfaces virtuelles Zones de transmission protégées Lectures/Ecritures distantes

48 Bibliothèques Paradigme passage de message Les nœuds se synchronisent et communiquent par messages Deux instructions de base Sendémission d’un message Receiveréception d’un message Points forts Simple à mettre en oeuvre Permet d’émuler les autres paradigmes

49 PVM Parallel Virtual Machine Laboratoire National d’Oak Ridge (Tennessee) 1989 Caractéristiques Notion de machine virtuelle Ensemble de machines physiques Construction préalable au lancement de la session Disponibilité très large Réseaux UDP + protocole de réémission Support de l’hétérogénéité XDR

50 MPI Message Passing Interface MPI-Forumv v Caractéristiques Un standard, pas une bibliothèque Diverses implémentations MPI-CH LAM-MPI … Supplante PVM Version 2.0 encore peu implémentée


Télécharger ppt "Parallélisme et grappes d’ordinateurs Olivier Aumage LIP, ENS Lyon."

Présentations similaires


Annonces Google