Systèmes, algorithmes et applications: Efficacité du parallélisme. Gaétan Hains LIFO, Université d'Orléans Janvier 2001.

Slides:



Advertisements
Présentations similaires
Gaétan Hains Laboratoire d’informatique fondamentale d’Orléans
Advertisements

L’INFORMATIQUE Mihalcea Cezar.
GEF 435 Principes des systèmes dexploitation Les systèmes dexploitation en général (Tanenbaum 1.1 et 1.3)
Placement de Motifs Architecture Application Contraintes: - Charge
Frédéric Gava JFLA2006 Une implantation de la juxtaposition parallèle.
Résolution de problèmes et logiciel de calcul symbolique
Informatique Deug2 Sciences Eco S. Maabout 2004/2005.
Modélisation et calcul scientifique
Structures de données et complexité
GRAPHES FONCTIONNELSANR-GRAAL Serge Burckel avril 2007.
PEA CALADIOM CAPTEUR INTELLIGENT À LONGUE AUTONOMIE POUR LA DÉTECTION ET LIDENTIFICATION DOBJETS MOBILES Thierry BERNARD Conseil de la recherche du 04/11/2004.
Introduction à l’Algorithmique
Optimisation algébrique de requêtes relationnelles
Journées franciliennes 2006 Moussa ELKIHEL (LAAS-CNRS;UPS Toulouse )
Modèle de coût algorithmique intégrant des mécanismes de tolérance aux pannes Samir Jafar, Thierry Gautier, Jean Louis Roch Laboratoire ID-IMAG Equipe.
Informatique parallèle hautes performances
Modèle polyédrique: fondements et application à la parallélisation de programmes réguliers Tanguy Risset DIF 2001/2002.
Optimisation dans les télécommunications
Application aux NK-landscape...
Yann SEMET Projet Fractales, INRIA Rocquencourt
Optimisation de Requêtes
Parallélisation d’un Algorithme CNFT
CALCUL PARALLELE PRODUIT : MATRICE – VECTEUR 10 pages Exposé par :
Systèmes distribués C. Delporte-Gallet (ESIEE-IGM)
Département de Mathématiques et Informatique
Aspects quantitatifs de la conception
Application des algorithmes génétiques
Chaire UNESCO - Calcul numérique intensif
Methode de Tri efficace
Algèbre relationnelle et SQL
Rappel... Caractérisation des matrices inversibles: Matrices bloc.

Calcul parallèle haute performance dans CAST3M
Détection du meilleur format de compression pour une matrice creuse dans un environnement parallèle hétérogène Olfa HAMDI-LARBI.
Rappel... Matrices bloc. Décomposition des matrices:
L’adaptativité pour un solveur de l’équation de Vlasov
Architecture des ordinateurs, Environnement Numérique de Travail
Informatique 1. Les applications de l’informatique
Simulation de problèmes couplés d’hydro-géologie :
Importance du réseau dans des architectures MIMD Tout échange entre les processeurs nécessite un transfert de données via le réseau.
EPID-CPI-ISAIP Philippe Bancquart - mise à jour 24/02/ page 1 Architecture des Mico-Ordinateurs PHILIPPE BANCQUART.
ASI 3 Méthodes numériques pour l’ingénieur
10 février 2006GDR ISIS Journée Localisation et Navigation Projet EGNOS-BUS (Eurêka) André Monin, Wael Suleiman LAAS-CNRS.
8INF856 Programmation sur architectures parallèles
Algorithmes Parallèles et Systèmes Réparties
Méthodes de décomposition de domaine pour la formulation mixte duale du problème critique de la diffusion des neutrons Pierre Guérin
Optimisation de requêtes
Calcul parallèle => partitionner les données en sous-groupes associés aux processeurs. P0 P2 P1.
Régulation de charge Jean-Louis Roch Projet APACHE Laboratoire ID - IMAG École ParDi Oujda - Octobre 1999.
Master IT - Génie Informatique
1 G. Gardarin Optimisation de Requêtes  1. Introduction  2. Arbres relationnels  3. Restructuration algébrique  4. Modèle de coût  5. Choix du meilleur.
Université Pierre et Marie Curie Laboratoire d’Informatique de Paris VI Département ASIM Analyse et résultats sur le dimensionnement des mémoires pour.
Construction d'une hiérarchie mémoire faible consommation
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
02/10/2013JC LP MD1 COURS_3. 02/10/2013JC LP MD2 Direct Memory Access DMA.
Gestion des Périphériques
Architecture des ordinateurs, Environnement Numérique de Travail
Knowledge discovery in Databases (KDD)
Algorithmes génétiques en optimisation combinatoire
Module calcul parallèle
Programmation des systèmes réparties Frédéric Gava (MCF) LACL, bâtiment P2 du CMC, bureau 221 Université de Paris XII Val-de-Marne.
Introduction aux architectures parallèles
Algorithmes parallèles
Raison d'être de la structure de fichiers : Les premiers travaux : Début des années 1960 : En 1963 : Près de 10 ans plus tard... (à peu près 1973) : Durant.
Café In: A quoi ca sert la recherche sur la programmation? Comment peut on faire travailler des ordinateurs ensemble? Ludovic Henrio SCALE TeamSCALE Team.
Présentation de Séminaire
ARCHITECTURE MATERIELLE D’UN SYSTEME A MICROPROCESSEUR
GdR MoMaS Novembre 2003 Conditions d’interface optimales algébriques pour la vibro-élasticité. François-Xavier Roux (ONERA) Laurent Sériès (ONERA) Yacine.
Novembre 2003 Simulation numérique en vibro-acoustique par couplage de deux codes parallèles Unité de Recherche Calcul à Haute Performance François-Xavier.
ok.
Transcription de la présentation:

Systèmes, algorithmes et applications: Efficacité du parallélisme. Gaétan Hains LIFO, Université d'Orléans Janvier 2001

Plan de l'exposé ' La mesure des systèmes parallèles: pas que des Mega-Flops... ' Le choix des algorithmes: densité et régularité. ' Des applications: problèmes faciles / difficiles à paralléliser.

Le modèle BSP: une vue unifiée archi. + appli. ' Système parallèle réseau de p ordinateurs ' Calcul asynchrone parallèle. (s : MFlops) p ' Echange « permutation ». g: Mmots/s ' Echange « tous vers tous »: p plus lent ' Synchronisation globale. L: MSynch./s

G L

G et L relatifs (en Flops)

G et L absolus en s et s mot

Les algorithmes ' Algèbre linéaire matrices pleines: efficacité OK, équilibrage OK. ' Matrices creuses: efficacité OK, équilibrage difficile. ' « SGBD »: tri, sélection, jointure: efficacité OK, équilibrage difficile. ' Séquentiel pur + mémoire parallèle: 1 processeur + (p-1) RAM via réseau.

Des applications ' SGBD: jointure en parallèle. ' Langue naturelle: DyALog. ' Résolveurs numériques: PIN. ' Data-mining: programmation génétique.

Jointure en parallèle (SGBD) ' Problème O(N 2 ), N= taille des relations. ' Efficacité parallèle élevée. ' Problème: déséquilibre « imprévisible ». ' Solution: algorithme préemptif, ' Surcoût << déséquilibre. ' Fujitsu AP3000 p=12, speedup = 8. Bamha, Hains (LIFO)

Traitement de la langue naturelle ' DyALog = analyseur syntaxique généralisé ' Grammaires peu ambiguës: speedup 5. ' Grammaires très ambiguës: ' Cray T3E, p 64: speedup = 25 ' Cluster PC, p 2: ralentissement. Debourges, Guilloré, DeLaClergerie, Hains (INRIA-LIFO)

Résolveur parallèle pour domaines numériques ' INPUT: variables, intervalles, contraintes algébriques. ' OUTPUT: intervalles maximalement réduits. ' Algorithme centralisé: ' Cray T3E, p 16: speedup = 5. ' Cray T3E, système creux: speedup < 2. ' Cluster PC, p 2: ralentissement. Granvilliers, Hains, Lallouet, Ballereau (IRIN-LIFO)

Data-mining par programmation génétique. ' Evolution de requêtes relationnelles. Très coûteux. ' Algorithme parallèle asynchrone: mauvaise convergence. ' Algorithme parallèle « cosmopolite »: ' Bonne convergence. ' Bi-processeur: speedup = 1,8 Braud, Vrain (LIFO)

Conclusions ' Problèmes denses: relativement faciles. ' Problèmes peu denses ou irréguliers: ' Bons algorithmes + bon réseau ' NE PAS: mesurer Mflops / $ ' MAIS: (MFlops,g,L) / $. ' Cluster de PC: tout dépend du réseau !