Télécharger la présentation
La présentation est en train de télécharger. S'il vous plaît, attendez
1
Parallélisme et grappes d’ordinateurs
Olivier Aumage LIP, ENS Lyon
2
Calcul haute performance Parallélisme
Introduction Calcul haute performance Parallélisme
3
Une forte demande en puissance de calcul en puissance de traitement
simulation et modélisation météo, climatologie chimie traitement des signaux images sons analyse de données génomes fouille de données en puissance de traitement bases de données serveurs multimédia Internet
4
Une forte demande en puissance de calcul en puissance de traitement
simulation et modélisation météo, climatologie chimie traitement des signaux images sons analyse de données génomes fouille de données en puissance de traitement bases de données serveurs multimédia Internet
5
Une forte demande en puissance de calcul en puissance de traitement
simulation et modélisation météo, climatologie chimie traitement des signaux images sons analyse de données génomes fouille de données en puissance de traitement bases de données serveurs multimédia Internet
6
Le parallélisme une tentative de réponse « l’union fait la force »
> gauss > gauss
7
Le parallélisme une tentative de réponse « l’union fait la force »
> gauss > gauss
8
Plusieurs niveaux machines architectures distribuées
9
Plusieurs niveaux machines processeurs architectures distribuées
machines multi-processeurs
10
Plusieurs niveaux Pentium IV machines processeurs
architectures distribuées processeurs machines multi-processeurs Pentium IV
11
Plusieurs niveaux machines processeurs unités de calcul
architectures distribuées processeurs machines multi-processeurs unités de calcul processeurs superscalaires
12
Plusieurs niveaux machines processeurs unités de calcul processus
architectures distribuées processeurs machines multi-processeurs unités de calcul processeurs superscalaires processus multi-programmation temps partagé
13
Plusieurs niveaux machines processeurs unités de calcul processus
architectures distribuées processeurs machines multi-processeurs unités de calcul processeurs superscalaires processus multi-programmation temps partagé threads multi-programmation à grain fin
14
Plusieurs approches machines à mémoire partagée > gauss
15
Plusieurs approches machines à mémoire distribuée > gauss
16
Plusieurs approches machines hybrides : Non-Uniform Memory Access (NUMA) > gauss
17
Historique Évolutions récentes
Contexte Historique Évolutions récentes
18
1950-1980 Matériel Logiciel Début des recherches en parallélisme
Machines peu fiables Coût extrêmes Logiciel Peu de chercheurs ont accès aux premiers supercalculateurs Peu de recherche Illiac-IV
19
Matériel Production commerciale de supercalculateurs Cray-1 (1976) Cray X-MP (1982) Recherche très active Calcultateurs massivements parallèles Hypercubes Utilisation de microprocesseurs Logiciel Les problèmes apparaissent La programmation parallèle est trop difficile Cray X-MP
20
Évolutions récentes Matériel Logiciel
Fort retrait des supercalculateurs entre 1990 et 1995 Nombreuses faillites Rachat de sociétés Disparition des architectures originales Micro-informatique Micro-processeurs rapides Réseaux haut débit/faible latence de plus en plus répandus Configurations PC/stations puissantes Logiciel Nécessité d’outils Compilateurs paralléliseurs Débogueurs Bibliothèques Essentiel des efforts de recherche
21
Pourquoi un tel déclin ? Peut-être un manque de réalisme
Faible demande en supercalculateurs Coût d’achat et d’exploitation trop élevés Obsolescence rapide Viabilité des solutions pas toujours très étudiée Difficultés de mise au point Solutions dépassées dès leur disponibilité Une utilisation peu pratique Systèmes d’exploitation propriétaires Difficulté d’apprentissage Manque ou absence d’outils Difficulté d’exploitation
22
Cahier des charges pour une machine parallèle
Objectifs Cahier des charges pour une machine parallèle
23
Objectifs économiques
Acquisition Coût limité par rapport aux supercalculateurs Rapport puissance/coût élevé Exploitation Ergonomie Fiabilité Facilité de maintenance Scalabilité Evolutivité
24
Objectifs techniques Solutions non-propriétaires
Nœuds à base d’ordinateurs personnels Systèmes d’exploitation classiques Linux, systèmes BSD, Solaris Windows NT Composants non-propriétaires Processeurs Intel / AMD (x86), DEC (Alpha), Motorola (PPC) Réseaux Ethernet, Myrinet, SCI, Giganet
25
Grappes d’ordinateurs
Concepts et idées
26
Principes généraux Structure d’une grappe Grappe
27
Principes généraux Structure d’une grappe Un ensemble de machines
Des PC du commerce Grappe Dell PowerEdge 2550
28
Principes généraux Structure d’une grappe Un ensemble de machines
Des PC du commerce Un réseau classique Lent Réservé à l’administration Réseau lent Grappe
29
Principes généraux Structure d’une grappe Un ensemble de machines
Des PC du commerce Un réseau classique Lent Réservé à l’administration Un réseau rapide Temps de transfert réduit Débit élevé Réservé aux applications Réseau rapide Réseau lent Grappe
30
Icluster (grappe de 100 pc, Grenoble)
Machines Quantité Grappes classiques 8, 16, 32 machines Grandes grappes Plusieurs centaines Processeur Nombre 1 ou 2 Type Pentium III/IV Athlon Autres : Alpha, Sparc Fréquence 1 GHz = Hertz Mémoire Taille 1 Go = octets Icluster (grappe de 100 pc, Grenoble)
31
Carte de communication Myricom
Communications Réseaux rapides Grande fiabilité Faible latence Quelques µs Réactivité Haut débit 100 ~ 1000 Mbit/s Gros volumes Fibre optique Carte de communication Myricom
32
Comparatif Cray T3E
33
Conclusion Et alors ?
34
Conclusion L’informatique du parallélisme évolue vers plus de pragmatisme La programmation parallèle est difficile Il est inutile de compliquer la situation avec des machines complexes Utilisation de matériels simples et fiables (grappes) Il est en revanche important d’encadrer le programmeur Développement d’outils Développement de techniques Un thème de recherche actif à tous les niveaux Architecture Système Informatique théorique
35
Évolution et perspectives
Et maintenant ?
36
De nouvelles approches
Grappes de grappes L’étape suivante Métacomputing Parallélisme à grande échelle Global-computing Projets de type SETI-at-home Exploitation des ressources inutilisées
37
A vous de jouer Where do you want to go today ???
39
Plusieurs niveaux machines processeurs unités de calcul processus
architectures distribuées processeurs machines multi-processeurs unités de calcul processeurs superscalaires processus multi-programmation temps partagé threads multi-programmation à grain fin
40
Communications Réseaux rapides
Grande fiabilité Faible latence quelques µs réactivité Haut débit 100 ~ 1000 Mbit/s gros volumes Interfaces et bibliothèques de communication adaptées Fonctionnalités minimales Contrôle direct en mode utilisateur Transferts zéro-copie
41
Plusieurs approches parallélisme de contrôle parallélisme de données
multi-programmation pipelines architectures superscalaires parallélisme de données parallélisme massif, machines de type PRAM processeurs vectoriels langages data-parallèles
42
(Fast|Giga)-Ethernet
Interconnexion Hub ou switch Câblage Cuivre ou fibre optique Latence ~20 µs Débit 100 Mb/s et 1Gb/s Note Compatibilité avec l’Ethernet classique Hub Switch
43
Myrinet Société Myricom Interconnexion Câblage
Switch Câblage Nappes courtes Cartes équipées d’un processeur Latence 1~2 µs Débit 1 Gb/s Note Durée de vie limitée des messages (50 ms) LANai
44
SCI Scalable Coherent Interface
Norme IEEE (1993) Société Dolphin Fonctionnement par accès mémoire distants Projections d’espaces d’adressage Réseau SCI Mémoire Bus PCI Bus PCI Mémoire Machine A Machine B
45
Interfaces Initialisation Transferts Réservée au système
Uniquement en début de session Transferts Directs depuis l’espace utilisateur Pas d’appels systèmes Pas de transitions Transmissions zéro-copie Interface Programme Réseau Système Espace utilisateur Transferts Initialisation
46
BIP Basic Interface for Parallelism Dédiée aux réseaux Myrinet
L. Prylli et B. Tourancheau Dédiée aux réseaux Myrinet Caractéristiques Transmission asynchrone Pas de contrôle de flux Pas de détection d’erreur
47
VIA Virtual Interface Architecture Tentative de standardisation
Beaucoup d’industriels impliqués Caractéristiques Principe d’interfaces virtuelles Zones de transmission protégées Lectures/Ecritures distantes
48
Bibliothèques Paradigme passage de message Deux instructions de base
Les nœuds se synchronisent et communiquent par messages Deux instructions de base Send émission d’un message Receive réception d’un message Points forts Simple à mettre en oeuvre Permet d’émuler les autres paradigmes
49
PVM Parallel Virtual Machine Caractéristiques
Laboratoire National d’Oak Ridge (Tennessee) 1989 Caractéristiques Notion de machine virtuelle Ensemble de machines physiques Construction préalable au lancement de la session Disponibilité très large Réseaux UDP + protocole de réémission Support de l’hétérogénéité XDR
50
MPI Message Passing Interface Caractéristiques
MPI-Forum v v Caractéristiques Un standard, pas une bibliothèque Diverses implémentations MPI-CH LAM-MPI … Supplante PVM Version 2.0 encore peu implémentée
Présentations similaires
© 2024 SlidePlayer.fr Inc.
All rights reserved.