Réunion ANR - GCPMF 15/01/2008 Xavier WARIN (EDF R&D - OSIRIS)‏ Stéphane VIALLE (SUPELEC - IMS)‏ Constantinos MAKASSIKIS (SUPELEC - IMS, LORIA - AlGorille)‏

Slides:



Advertisements
Présentations similaires
GEF 435 Principes des systèmes d’exploitation
Advertisements

Sous-projet IV Communications Placement/Ordonnancement.
Applications de GdX Coordinateur thématique : Christophe Cérin
A NETWORK-AWARE DISTRIBUTED STORAGE CACHE FOR DATA INTENSIVE ENVIRONMENTS Brian L. TIERNEY, Jason LEE, Brian CROWLEY, Mason HOLDING Computing Sciences.
The Reyes Image Rendering Architecture
Champs de Markov en Vision par Ordinateur
Master de recherche informatique Université de Montpellier 2
Apprentissage de représentation et auto-organisation modulaire pour un agent autonome Bruno Scherrer 6 janvier 2003 Directeurs : F. Alexandre, F. Charpillet.
CLUSTERING Grappe d'ordinateurs.
PLAN du COURS Introduction Structure des Systèmes Informatiques
Informatique parallèle hautes performances
Séminaire IMS 10/01/2008 Distribution large échelle d’un algorithme financier de contrôle stochastique CIGC05 - GCPMF Xavier WARIN (EDF R&D - OSIRIS) Stéphane.
Parallélisation d’un Algorithme CNFT
Framework Avancement au Plan Principales avancées pour les parties Ligand, Sites Actifs et Docking Processus dinstallation de.
La haute disponibilité
1 Réunion ANR-CIGC GCPMF 15 mars 2006 Architecture de grille générique, multi- paradigmes et tolérante aux pannes, pour le temps contraint. Application.
CALCUL PARALLELE PRODUIT : MATRICE – VECTEUR 10 pages Exposé par :
Sélection automatique d’index et de vues matérialisées
Aspects quantitatifs de la conception
UNIVERSITE DES SCIENCES ET DE LA TECHNOLOGIE D’ORAN
Architecture de grille générique, multi-
ADR Active and Dynamic Routing. Plan Introduction au routage Les réseaux actifs Les agents Mise à jour des matrices de routage Architecture du routage.
DEA Intelligence Artificielle et Optimisation Combinatoire
Chaire UNESCO - Calcul numérique intensif
Journée thématique du GDR IFS « Réduction de modèle en IFS » ENSAM – Jeudi 18 mai 2006 Validation de l’approche de la réduction a priori - POD sur l'équation.
Management stratégique et management opérationnel
Chaîne logistique : - Approvisionnement - Stocks
E. Canot J. Erhel C. De Dieuleveult Le code d´eau salée réunion hydrogrid le 11/10/2004.
Pr. Alain Greiner (LIP6 - ASIM) Daniel Millot, Philippe Lalevee (INT)
Universté de la Manouba
Vincent Thomas Christine Bourjot Vincent Chevrier
Détection du meilleur format de compression pour une matrice creuse dans un environnement parallèle hétérogène Olfa HAMDI-LARBI.
Ordonnancement de tâches
L’adaptativité pour un solveur de l’équation de Vlasov
Importance du réseau dans des architectures MIMD Tout échange entre les processeurs nécessite un transfert de données via le réseau.
Fondements de l’algorithmique des réseaux
Programmation dynamique
10 février 2006GDR ISIS Journée Localisation et Navigation Projet EGNOS-BUS (Eurêka) André Monin, Wael Suleiman LAAS-CNRS.
8INF856 Programmation sur architectures parallèles
Programmation linéaire en nombres entiers
Calcul parallèle => partitionner les données en sous-groupes associés aux processeurs. P0 P2 P1.
Les méthodes d’aide à la décision en recherche opérationnelle
Modèles et protocoles de cohérence des données en environnement volatil Grid Data Service IRISA (Rennes), LIP (Lyon) et LIP6 (Paris) Loïc Cudennec Superviseurs.
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
Étude d’un protocole de partage de travail entre systèmes Pair à Pair
D. E ZEGOUR Institut National d ’Informatique
2008/ Plan du cours 1.Introduction –Contenu du cours 2.Logique mathématique –Calcul propositionnel –Calcul des prédicats –Logique floue et aide à.
IFIPS Info 5 – 2004 / 2005 Projet de Résolution de Contraintes JEU DE L’AWELE AMARAL – FILLIAT – LANGLAIS – PETIT – SCHILLER.
1 Université Henri Poincaré, Nancy 1 La préemption appliquée aux FPGAs Soutenance de rapport bibliographique de DEA Faculté des Sciences Vandoeuvre-lès-Nancy.
1/17FDC janvier 2006 Alice MARASCU Florent MASSEGLIA Projet AxIS INRIA Sophia Antipolis Classification de flots de séquences basée sur une approche.
Optimisation pour la Conception de Systèmes Embarqués
2005/2006 Structures de Données Introduction à la complexité des algorithmes.
PaCO++ André Ribes Réunion Hydrogrid Rennes 15/09/03.
Algorithmes génétiques en optimisation combinatoire
Interface de communication pour les réseaux InfiniBand
Introduction aux architectures parallèles
Intégration des Tableaux Multidimensionnels en Pig pour
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes, C. Pinazo Juin 2015.
Structures de données avancées : Arbres B+ avec expansion partielle D. E ZEGOUR Institut National d ’Informatique.
Étude de systèmes de fichiers distribués Théorie et pratique Cyril Séguin Directeurs de thèse Gaël Le Mahec Alain Cournier Benjamin Depardon c.
Visualisation des flots optiques en 3D
1 Logiciels de confection automatique d’horaires.
30/11/2007Architecture logicielle pour l’adaptation dynamique; Application à la réplication de données1 Architecture logicielle pour l’adaptation dynamique.
L’arrivée des versions parallèles des modèles de l’IPSL Adapter les codes aux architectures multiprocesseurs des futures machines afin d’améliorer les.
Contexte de l’apparition du Cloud
Architecture et technologie des ordinateurs II
Ordonnancement en présence d’agents individualistes
Equipe Projet DOLPHIN 03/04/08.
PetaSky: Expérimentations avec HadoopDB et Hive 1 Amin Mesmoudi.
Transcription de la présentation:

Réunion ANR - GCPMF 15/01/2008 Xavier WARIN (EDF R&D - OSIRIS)‏ Stéphane VIALLE (SUPELEC - IMS)‏ Constantinos MAKASSIKIS (SUPELEC - IMS, LORIA - AlGorille)‏ Distribution large échelle d’un algorithme financier de contrôle stochastique CIGC05 - GCPMF

2 Introduction 1

3 Objectif : Présentation de la distribution d’une application financière de valorisation d’actifs de stockage de gaz réalisée avec EDF. Application utilisée dans des projets d’investissements : –calcule le prix de location optimal d’un actif de stockage; –utilise des modèles de prix complexes gourmands en ressources et nécessitant une calibration.

4 Introduction Solution : distribution/parallélisation. –pour accélerer et passer à l’échelle Par rapport applications de type Bag of Tasks, mise en jeu : –de calculs intensifs ET – des communications fréquentes : redistribution régulière de données et de résultats  nécessite une optimisation des échanges de données

5 Contexte financier 2

6 Actif de stockage de gaz : –Cavité où est stocké le gaz –Matériel (pompes, …) pour injecter/sous-tirer –Contraintes de fonctionnement diverses Fluctuations des prix du gaz : –Cause : modification de la demande (hiver, été) –Conséquence : possibilité d’arbitrer pour profiter de la dynamique des prix → valorisation Gaz OUT IN

7 La valorisation fait appel à : –des algorithmes de contrôle stochastique –des modèles de prix variés Contexte financier Dans notre cas le propriétaire veut déterminer à quel prix il va louer une partie de son actif. Pour ce faire, il se fonde sur les résultats potentiels de différentes stratégies de gestion qu’il aurait pu appliquer sur la portion louée s’il ne l’avait pas louée.

8 Distribution de l’algorithme 3

9 Algorithme séquentiel t n-1 t0t0 Aujourd’hui Futur tntn Calculs Stochastiques Prix de location à t 0 Hypothèses de terminaison

10 Algorithme séquentiel Pour chaque pas de temps (de t n-1 à t 0 ) Pour chaque niveau de stock admissible –Calcul complexe pour déterminer la meilleure décision à prendre au temps t i avec un niveau de stock s i : « Injecter, ne rien faire ou soutirer ? »

11 Difficultés de parallélisation Pour chaque pas de temps (de t n-1 à t 0 ) Pour chaque niveau de stock admissible –Calcul complexe pour déterminer la meilleure décision à prendre au temps t i avec un niveau de stock s i : « Injecter, ne rien faire ou soutirer ? » La parallélisation au niveau de la boucle la plus externe est impossible à cause des dépendances de l’algorithme. Le niveau le plus intéressant se trouve au niveau de la boucle sur les niveaux de stock.

12 Structures de données A chaque pas de temps utilisation de deux tableaux : OldRes et NewRes. OldRes : contient les résultats du pas de temps précédent. NewRes : pour mémoriser les résultats du pas de temps courant. Problème : à chaque pas de temps le travail s’effectue sur une zone contiguë mais à bornes variables. Niveaux de stock Aléas de prix Calculs NewRes OldRes Résultats à t i+1 Résultats à t i A t i :

13 Devient Redistribution Schéma de parallélisation En séquentiel, on peut se placer dans le cas ci- contre. Solution 1 : réplication des tableaux. broadcast. t i+1 : t i : Solution 2 : optimisation de la taille des tableaux. redistribution de ce qui est nécessaire. NewRes OldRes NewRes Calculs En parallèle :

14 Schéma de parallélisation t i : t i+1 : P2P1P0 Res à t i+1 P1 P2 P0 P1 P2 P0 P2P1P0 P2P1P0 BA C D 1) Déterminer la nouvelle distribution des calculs à t i 3) Déterminer les données à envoyer par P1 2) Déterminer les données requises à t i par P1 5) Effectuer les communications selon le plan de routage (MPI) 6) Calculer Res à t i P0P1 CAD P2 -ABReceive Send 4) Allouer structures de données de taille optimale Sur P1: Res à t i Plan de routage

15 Implémentations 4

16 Implémentations Deux implémentations : (1) en Python avec MPI et C++ : –Priorité au confort de l’utilisateur (paramétrage, visualisation …) –Interfaçage Python/C++ –Interfaçage Python/MPI (2) en C++ avec MPI –Priorité à la performance –3 versions : MPI_Bsend(), MPI_Ibsend() et MPI_Issend()

17 Etude des performances 5

18 Evaluation des performances Utilisation de la 2 ième implémentation ( MPI_Issend() ) Expérimentations sur 3 architectures distribuées : –Deux clusters de PCs (SUPELEC et GRID’5000/Sophia). –Le supercalculateur Blue Gene/L de EDF R&D. Avec 3 modèles de prix du gaz : **** Gaussien 2 facteurs « G-2f » *** Normal Inverse Gaussien « NIG » ** Gaussien « G » MémoireCalculs Besoins Modèle

19 Performances avec « G » 8 15s min 14min

20 Performances avec « NIG » min 6h40

21 Performances avec « G-2f » Besoin de beaucoup de mémoire – 11 Go pour l’exécution séquentielle – 10 CPUs avec 2 Go en parallèle Exécution rendue possible par notre distribution. Scale jusqu’à 1024 processeurs. Limitation : –Impossible de calculer un speedup rigoureux. –Donc étude d’extensibilité (seulement).

22 Performances avec « G-2f » Blue Gene wins ! h 2h20 46min

23 Etude d’extensibilité avec « G-2f » Maintient du temps d’exécution à secondes

24 Conclusion 6

25 Conclusion & Perspectives Algorithme itératif de contrôle stochastique dynamique avec distribution à chaque pas de temps des calculs et des données. Résultats issus des expérimentations témoignent de l’efficacité de notre distribution sur clusters de PCs (128 CPUs) et supercalculateur (1024 CPUs) –Accéleration de l’exécution sur trois modèles de prix aux caractéristiques variées –2 modèles de référence et 1 nouveau modèle

26 Version n-dimensionnelle distribuée Depuis octobre 2007 (EDF & Supélec) : Distribution d’une version de « contrôle stochastique multistocks »  Distribution d’hypercubes de données et de calculs… Application à la gestion dynamique du portefeuille EDF : “ maximisation de l'espérance des gains liés à la gestion de stocks d'eau et de stocks de produits à terme sous respect de contrainte de satisfaction de la demande. ”  WP6 : Contrôle stochastique en grande dimension. Vers une généralisation à N dimensions de la distribution d’un algorithme de contrôle stochastique

27 I.A chaque pas de temps : –Intersections et répartitions d’hypercubes –Provisioning dynamique des processeurs –Sauvegardes de résultats intermédiaires II.Simulations de Monte Carlo à partir des résultats intermédiaires : embarrassingly parallel Version n-dimensionnelle distribuée temps T i+1 TiTi Trajectoires de Monte Carlo Une application plus complexe en deux parties :

28 Version n-dimensionnelle distribuée Un cas test sur 7 stocks dure : –18 h sur les 32 PCs du cluster de SUPELEC ; –5h30 sur 1024 nœuds de Blue Gene.  Les temps de calcul restent longs... besoin de tolérance aux pannes.

29 Questions ? ?

30

31

32 Environnements d’expérimentation Cluster SUPELEC 32 nœuds monoprocesseur Processeur: Pentium 4 à 3.0 GHz Mémoire vive: 2 GB Réseau d’interconnexion: Gigabit Ethernet Cluster Grid’5000 (Sophia, Azur)‏ 72 nœuds biprocesseurs Processeur: Opteron 246 à 2.0 GHz Mémoire vive: 2 GB (partagés)‏ Réseau d’interconnexion: Gigabit Ethernet

33 Environnements d’expérimentation Blue Gene/L de EDF R&D 4096 nœuds biprocesseurs Processeur : PowerPC à 700 MHz (faible consommation)‏ Mémoire vive : 1 GB (partagé)‏ Réseau d’interconnexion : Gigabit Ethernet ++

34 Quelle machine pour quel modèle ? Les performances permettent de proposer une architecture d’exécution adaptée selon le modèle envisagé :