L’arrivée des versions parallèles des modèles de l’IPSL Adapter les codes aux architectures multiprocesseurs des futures machines afin d’améliorer les.

Slides:



Advertisements
Présentations similaires
Applications de GdX Coordinateur thématique : Christophe Cérin
Advertisements

Etudiants : Benjamin BLANC Cyrille KLUZEK Encadreur :
Serveur jeu Le serveur fait partie d'un logiciel de jeu en ligne multi joueur en architecture client serveur. Il répond à des demandes.
Sujet BL1 : Simulateur de comportement réactif Bernard Clément Barelli Nicolas Maitrehut Loïc Ould Sidina Mahi Encadrant : Mr Michel Buffa.
TER Visualisation 3D de calculs électromagnétiques Production : Sébastien JOB Jean-Christophe LARRE Cédric PIOVANO Encadrement : Fabrice HUET.
13 – 16 Décembre 2005 Laurence Viry Introduction à MPI MPI_2.
Introduction à MPI 13 – 16 Décembre 2005 Laurence Viry.
Bibliothèques Scientifiques
Séminaire IMS 10/01/2008 Distribution large échelle d’un algorithme financier de contrôle stochastique CIGC05 - GCPMF Xavier WARIN (EDF R&D - OSIRIS) Stéphane.
Parallélisation d’un Algorithme CNFT
CALCUL PARALLELE PRODUIT : MATRICE – VECTEUR 10 pages Exposé par :
Sylvain Mondon Météo-France
IPSLCM5 Couplé « physique » NEMO bleu : océan
MIAGE MASTER 1 Cours de gestion de projet
Chaire UNESCO - Calcul numérique intensif
Atelier ADOMOCA Nov 2007 Hervé Le Berre Larborescence du projet Mocage.
Projet JAVA EE Approfondi
Atelier ADOMOCA Nov 2007 Hervé Le Berre & Daniel Cariolle Une méthode plus robuste pour la résolution des systèmes chimiques Projet ANR SOLSTICE.
Optimisation et parallélisation de code pour processeur à instructions SIMD multimedia François Ferrand.
Présentation du mémoire
J-L Dufresne Responsable du pôle de modélisation Pôle de modélisation de l'IPSL: travaux en cours en vue de la préparation du prochain rapport du GIEC.
Amélioration du parallélisme du code de climat de l'IPSL.
CNRM Atmosphère globale (ARPEGE). Atmosphère régionale (ALADIN). Océan global et régional (OPA). Assemblage et emboîtements à faire. CERFACS Coupleurs.
MGV * : quelques prévisions de performances * Modèle à Grande Vitesse.
Table ronde Variation décennale du climat
Nouvelle version de référence LMDZ4: LMDZ4_V3 Pourquoi? dernière version de référence: IPCC (développements depuis) versions (re)commencent à diverger.
LE PARALLELISME DANS LE MODELE CLIMATIQUE DE L’IPSL
Détection du meilleur format de compression pour une matrice creuse dans un environnement parallèle hétérogène Olfa HAMDI-LARBI.
Séminaire DEN/DSOE/Simulation sur le calcul hautes performances: le 7 novembre /17 Numerical Platon Contexte –outil daide aux développements de codes.
Système de transcription semi-automatique Vers une intégration de la RAP dans le logiciel Transcriber Projet de Master1 31 mai 2007 IUP GMI -Avignon Nicolas.
LEGO EPISODE III LEGO: simulations climatiques avec DIET E.Maisonnave, V.Pichon.
L’adaptativité pour un solveur de l’équation de Vlasov
Importance du réseau dans des architectures MIMD Tout échange entre les processeurs nécessite un transfert de données via le réseau.
Mise en oeuvre et exploitation
8INF856 Programmation sur architectures parallèles
Point sur le couplé // CSPOLE 16 juin 2006 Marie-Alice Foujols - Olivier Marti.
Le point sur la parallélisation du couplé Adapter les codes aux architectures multiprocesseurs des futures machines afin d’améliorer les temps de restitution.
Bases de données fédéréEs hétérogènes
Chimie, aérosols dans LMDZ-INCA Effet des aérosols sur le climat
Calcul parallèle => partitionner les données en sous-groupes associés aux processeurs. P0 P2 P1.
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
L’automatisation des processus RH les plus importants
Introduction au Génie Logiciel
18/06/07NOV-3554-SL Réunion ADOMOCA 21/11/2007 Contribution à l’assimilation chimique des observations METOP : IASI et GOME.
Modélisation du climat à l’IPSL: existant, objectifs et enjeux à 4 ans
Programmation parallèle
PARALLÉLISATION AUTOMATIQUE D’ALGORITHMES
Pôle de modélisation de l'IPSL: simulations en vue de la préparation du prochain rapport du GIEC.
Atelier ADOMOCA-2 Les Lecques, oct Assimilation haute résolution IASI-Valentina Benjamin Pajot S. Massart, D. Cariolle, A. Piacentini CERFACS.
Module 3 : Création d'un domaine Windows 2000
Environnement des modèles Contraintes liées au parallélisme Utilisation de plusieurs machines Liens couplé/forcé.
Présentation rapide de l’état des outils IPSL Marie-Alice Foujols Octobre 2005.
Introduction et Généralités sur l’Algorithmique
Contribution de l’IPSL au projet CMIP5
Couplé parallèle Etat des lieux. Objectifs Couplé parallèle en production à l’arrivée de la nouvelle machine vectorielle IDRIS (entre février et avril.
Configuration LOOP Retour d’expériences P. CADULE, L. BOPP, P. FRIEDLINGSTEIN.
OPTIMISATION DE LA PLANIFICATION
Point sur l'utilisation des moyens de calcul à court terme et stratégie à moyen terme Marie-Alice Foujols Pôle de modélisation du climat IPSL.
PaCO++ André Ribes Réunion Hydrogrid Rennes 15/09/03.
21/02/2003DEA DISIC 1 Grid Computing Programming the grid: Distributed Software Components, P2P and Grid Web Services for Scientific Applications Tarak.
Page 1 SIESTE février 2005 Un coupleur dynamique de codes parallèles URL: Thierry Morel.
CPI/BTS 2 Programmation Web Les sites dynamiques Prog Web CPI/BTS2 – M. Dravet – 02/10/2003 Dernière modification: 02/10/2003.
Subversion.
mini projet maintenance:
GdR MoMaS Novembre 2003 Conditions d’interface optimales algébriques pour la vibro-élasticité. François-Xavier Roux (ONERA) Laurent Sériès (ONERA) Yacine.
1 Monopalme Projet 4 Info Présentation finale LE LAY Olivier MAHE Jocelyn FORM Nicolas HENRY Gurvan BONNIN Thomas BASSAND Guillaume Décembre 2009 MONNIER.
Formation SGA Module Budget Durée : 1 jour. Sommaire Formation Budget 1.Notions de base 2.Accéder au budget – Chemin d’accès au fichier Excelarator –
Novembre 2003 Simulation numérique en vibro-acoustique par couplage de deux codes parallèles Unité de Recherche Calcul à Haute Performance François-Xavier.
Ecole Informatique 2010 La Programmation des Architectures Multi-cœurs Cécile Barbier Fatih Bellachia Alain Masserot.
1 EDF Electricité de France novembre 2003Journées scientifiques GdR MOMAS GdR MOMAS – Pourquoi ?  Echanger les informations entre les acteurs du.
Transcription de la présentation:

L’arrivée des versions parallèles des modèles de l’IPSL Adapter les codes aux architectures multiprocesseurs des futures machines afin d’améliorer les temps de restitution des simulations. Simulation sur de plus longues durées Accession à de plus fines résolutions. Codes plus complexes (ex : ESM) Parallélisation des codes LMDZ4, ORCHIDEE et INCA (+adaption OASIS 3 ). Objectif : mise en production d’une version parallèle de l’ensemble du modèle couplé pour l’arrivée de la nouvelle machine vectorielle de l’IDRIS. Version de test d’un couplé LMDZ4/ORCHIDEE/OPA vers mi-juillet

Les grandes lignes sur la parallélisation des codes Chacun des processeurs effectue les calculs sur une partie des données. Communication inter-processus : distribution des tâches, échange de données et synchronisation. Technologie employée : communication interprocessus à l’aide de la librairie MPI (Message Passing Interface). Implémentation de la parallélisation : 2 parties distinctes : Partie dynamique de LMDZ4 : beaucoup de communications et d’échanges de données entre processus sur des échelles de temps très courtes. Partie physique de LMDZ4, ORCHIDEE et INCA : données localement indépendantes, peu de communications.

Distribution des données sur chaque processus LMDZ 4 : partie dynamique Resserrement des mailles aux pôles : non respect de la condition CFL. Divergence des champs. Application d’un filtre (de type FFT) pour supprimer les fluctuations de courtes longueurs d’onde. Filtre appliqué sur les 1/6 de la région des pôles soit 1/3 de la surface globale. Très pénalisant en temps de calcul, appelé à chaque calcul faisant appel à un opérateur différentiel (caldyn et dissip). Difficulté pour découper le domaine en longitude. Découpage uniquement en lattitude. Grille dynamique grille iim x jjm sur llm niveaux verticaux

PROCESS 0 PROCESS 1 PROCESS 3 Répartition des données par process PROCESS 2 pôle nord pôle sud latitude longitudes

Communication MPI des halos plusieurs fois par itération (pas de temps). Problème du filtre : les processeurs aux pôle travaillent beaucoup plus qu’à l’équateur  on diminue la répartition des domaines aux pôles pour l’augmenter à l’équateur. Répartition de la charge. Chaque routine ( caldyn, vanleer et dissip ) a sa propre répartition optimale. Rééquilibrage dynamique pour chacune des routines. Procédure d’ajustement pour déterminer l’optimum. Génération automatique d’un fichier d’ajustement pour une résolution et un nombre de processus donné, réutilisable pour les simulations suivantes.  Ex : Résolution 96x72x19 sur 4 processus : Bands_96x72x19_prc.dat

LMDZ4 – partie physique, ORCHIDEE, INCA Sur la grille physique, les points géographiques sont localement indépendants. On distribue à chaque processus un vecteur de point géographique (incluant la colonne atmosphérique pour INCA et LMDZ). Ne nécessite pas de communication interprocessus à de rare exception près : Accès IO Diagnostiques globaux Interface du couplé, routage de l’eau (ORCHIDEE)… Gestion des IOs Fichiers d’initialisation et de restart : lus par le processus maître qui distribue ensuite les données aux autres processus. Fichiers d’historique (histwrite) : chaque processeur écrit dans son fichier local. Reconstruction d’un fichier unique par post-traitement (outil rebuild, J. Bellier).

Ce qui va changer Coté utilisateur : (presque) rien Lancement de l’exécutable :./gcm.e => mpirun –np N./gcm.e Reconstruction des fichiers histoire : rebuild –o histday.nc histday_00[0-n].nc Coté développeur Éviter les corrélations entre les points géographiques sur la grille physique. Prudence lors de la réalisation de diagnostiques globaux ou des moyennes zonales. Prudence lors de la lecture ou l’écriture de fichiers (excepté pour histwrite ). Nécessite des communications. Nécessité de la réalisation d’une documentation

Etat d’avancement et calendrier LMDZ 4 : partie dynamique + partie physique. Parallélisation terminée. Phase d’intégration dans la version LMDZ4 V3 //. A terme : - une dynamique séquentielle + une dynamique parallèle. - une partie physique commune parallèle. Version finalisée début juillet. LMDZ4 // + OASIS3 + OPA8 séquentiel : OK, tests concluants avec la pré-version. Version finalisée avec LMDZ4 V3 vers mi-juillet. ORCHIDEE (et LMDZOR) : Parallélisation terminée Phase d’intégration CVS (M. Mancip) => ORCHIDEE 2.0 //. Fonctionne en mode forcé et en couplé (LMDZOR). Version finalisée vers mi-juillet.

LMDZOR/OPA Pas encore testé. Mi-juillet ? INCA : NMHC + AER (119 traceurs), CH4. Parallélisation terminée. Phase d’intégration CVS et merge des versions (A. Cozic). Version finale : fin Septembre. Tests et validation scientifique : courant de l’été. Cours et documentation : prévus pour l’automne. Vers le ESM // : date : ???

Perspectives à court terme : Optimisation des modèles : amélioration de la parallélisation et de la vectorisation. Phase de benchmark afin de déterminer les performances et la scalabilité des codes sur différentes architectures matérielles. Ajout d’un niveau parallélisation supplémentaire en OpenMP (en mémoire partagée) sur les niveaux verticaux de la dynamique.  Objectif à terme : parallélisation mixte MPI/OpenMP Facteur 3 en speed-up attendu en plus des gains MPI. Facteur 6 si doublement des niveaux verticaux. Objectif : atteindre des speed-ups de 20 sur une trentaine de processeurs vectoriels sur les futures grilles standards (ex : 192x144x50). Pour INCA : ajouter un niveau de parallélisation sur l’advection des traceurs.