Master de recherche informatique Université de Montpellier 2 Calcul sur la grille Module optionnel Master de recherche informatique Université de Montpellier 2 2005/2006
Intervenants Vincent Boudet, et Rodolphe Giroudeau Maîtres de Conférence LIRMM, équipe APR Algorithmique et Performance des Réseaux
Calendrier Le cours a lieu le lundi après-midi de 13h15 à 16h30. 19 septembre VB 26 septembre VB 3 octobre RG 10 octobre RG Plus tard : Vous
Plan du cours 1- Introduction 2- Equilibrage de charge et distribution dans les grilles Pourquoi ? Equilibrage 1D Equilibrage 2D Partitionnement Libre Approche Maître/Esclaves (si on a le temps) 3- Ordonnancement hiérarchique sur grille 4- Tâches malléables (si on a le temps)
Travail personnel Etude bibliographique Examen écrit Lecture d’un article de recherche Présentation orale Examen écrit
Introduction Concept de grille
Machine à mémoire partagée 2100 G F L O P S 2100 Machine monoprocesseur Machine à mémoire partagée Grappe locale (cluster) Grappe globale (Grid)
Chaîne alimentaire informatique Demise of Mainframes, Supercomputers, & MPPs 2
Principes de base Work harder : processeurs plus rapides Pfister [In search of clusters,1998] “3 ways to improve performance : Work harder Work smarter Get help” Work harder : processeurs plus rapides Work smarter : algorithmique Get help : parallélisme/distribution
Historique Projet Beowulf (NASA, HPCC, début 1994) Octobre 1996 exploiter la puissance de calcul et le parallélisme potentiels d’une pile de PC pour l’exécution d’applications scientifiques adapter la configuration de ces systèmes à faible coût aux besoins de calcul de la Nasa Octobre 1996 1,25 Gflops sur une grappe de 16 machines standard valant moins de $50 K pour une application de simulation numérique
Beowulf PC Réseau standard Linux -> ExtremeLinux Ethernet Système de communication par échange de messages : TCP/IP Linux -> ExtremeLinux
Une grappe N°2 du Top 500 LLNL, Livermore, USA. Intel Tiger4, Quadrix 19, 94 Tflops
Evolutions en 10 ans 100 x #processeurs > 10 x fréquence d’horloge des processeurs 100 x capacité mémoire par processeur 100 x débit par lien réseau > 10 x réduction de la latence réseau > 100 x performance Linpack sur grappe
Evolutions des architectures à haute performance
Aujourd’hui
Spectre d’utilisation Multiprogrammation Parallélisme Implicite ou explicite Haute disponibilité Calcul scientifique et applications commerciales
Grappe de calculateurs Réseau de calculateurs indépendants interconnectés destinés à être utilisés comme une seule ressource de calcul nœuds (PC, station de travail, SMP) réseau à haut débit et faible latence Intersection de deux domaines les système distribués les architectures parallèles
Grappe Nœud de base Réseau à haut débit et faible latence 1 ou plusieurs processeurs périphériques d’E/S mémoire Exemples : PC, station de travail, SMP Réseau à haut débit et faible latence Myrinet, SCI, ATM, GigabitEthernet, ... Vers le 10 Gbps et au delà de débit et 1 µs de latence
Potentialités du matériel Puissance des processeurs (GHz) Réseaux haut débit (Goctets) Quantité importante de mémoire et d’espace de stockage
Importance du logiciel Tirer profit des potentialités matérielles performance redondance -> haut disponibilité Gestion globale des ressources exploiter le parallélisme rendre transparente la distribution Une application doit pouvoir utiliser efficacement l’ensemble des ressources de la grappe quelque soit leur localisation.
Réalité des grappes Des milliers de grappes installées universités laboratoires de recherche industriels laboratoires publics Différentes configurations grappes assemblées à la main par l’utilisateur grappes vendues assemblées
Pourquoi pas avant ? Pas de logiciel offrant l’image d’une machine unique remplacer un super-calculateur par 20 machines a un impact sur l ’utilisation et l’administration solutions propriétaires onéreuses Digital Open VMS cluster Tandem clusters non propriétaires réservés à des sites experts
Axes de recherche Passage à l’échelle – millions de processeurs Fédération de grappes Grilles Ordonnancement Qui fait quoi ? Et ou ? Gestion des données Ou placer les données ? Quelle influence ? Programmation au delà de MPI (assembleur des grappes !)
Pour conclure … Propos de Thomas Sterling à la conférence Cluster 2004 1994 Est-ce que les grappes peuvent fonctionner ? Peuvent-elles être utiles ? 1997 Est-ce qu’on peut construire des grappes et les programmer pour les rendre pratiques ? 2000 Est-ce que les grappes peuvent passer à l’échelle et peut-on les gérer de manière fiable ? 2003 Est-ce qu’on peut gagner [au top 500] ? Aujourd’hui Domination du marché des machines à haute performance