Plate-forme MIRAGE Méso-Informatique Répartie pour des Applications en Géophysique et Environnement.

Slides:



Advertisements
Présentations similaires
Les Ressources Requises pour un Exercice de Profilage des PDIs Atelier Bangui, République Centrafrique 9 mars 2011.
Advertisements

Fabrice Lauri, François Charpillet, Daniel Szer
Matériels Composants physiques de l’ordinateur.
IN’Tech Le club de technologie de Grenoble Network Initiative animé par l’INRIA Rhône-Alpes.
Journée d’échange du 17 Novembre
Applications de GdX Coordinateur thématique : Christophe Cérin
ATELIER BOIS ENERGIE Journée du 22 mars BORDEAUX
Master de recherche informatique Université de Montpellier 2
La collaboration CNES-IMC/BDL autour du projet Mars Sample Return : Bilan et perspectives A.Fienga [1, 2], J. Berthier [1], é Journées Scientifiques de.
Congrès SPECIF janvier 2002 Sur la politique scientifique de lINRIA Bernard Larrouturou
STRATEGIE DONNEES MARINES Les données in situ Catherine Maillard, IFREMER/TMSI/IDM/SISMER SISMER Table Ronde RIO 29/11/2000 SISMER Systèmes dInformations.
Le Centre dEtudes Spatiales de la BIOsphère SMOS : une mission vitale Tour dhorizon scientifique > Objectifs scientifiques Préparation de la mission SMOS.
BASS2000-Tarbes : statut et projets Meunier N., Lafon M., Maeght P., Grimaud F., Roudier T. Observatoire Midi-Pyrénées.
Méthodes Quantitatives d'Aide à la Décision
Le Grid Computing et son utilisation dans les entreprises et les industries Laurent CANTONE Résoul UNAL.
Laboratoire d'InfoRmatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université Lumière Lyon.
Filière Systèmes Electroniques Embarqués Le choix de lalternance Lilian BOSSUET conseil dorientation du GIP CNFM, Paris
18 avril 2002réunion Datagrid France1 E-toile Plate-forme RNTL 2001 Environnement matériel et logiciel pour le développement et l expérimentation de grille.
Informatique parallèle hautes performances
Parallélisation d’un Algorithme CNFT
Le Courant Porteur en Ligne
Martine HEYDE8 juillet Lyon 1SPIRAL et ses utilisateurs LES TICE A LYON 1… Une politique de mutualisation Université Claude Bernard - Lyon 1 Martine.
Karel Heurtefeux1, Fabrice Valois2
Sélection automatique d’index et de vues matérialisées
Gestion des réserves naturelles
Plan de l’exposé Présentation de l’équipe Présentation du stage
Projets GEV : avancements 28 mai Conception et développement doutils dauto-évaluation et de mise à niveau en mathématiques projets GEV:avancements.
UTT : Un serveur Intranet
Master professionnel Statistique, informatique et techniques numériques (SITN)
Interprétation de séquences dimages pour des applications MédiaSpace Alberto AVANZI François BREMOND Monique THONNAT Projet ORION INRIA de Sophia Antipolis.
Simulation distribuée et continue
J-L Dufresne Responsable du pôle de modélisation Pôle de modélisation de l'IPSL: travaux en cours en vue de la préparation du prochain rapport du GIEC.
Gestion des réserves naturelles
Cours IHM : Introduction
Environnement Méso-NH
Intégration à TRNSYS du noyau de CODYRUN, code de simulation thermo-aéraulique de bâtiments : le Type 59 Alain BASTIDE, Harry BOYER, Philippe LAURET, Franck.
MEG et EEG : marqueurs temps réels de l’activité cérébrale
CALMIP : Calcul en Midi-Pyrénées
L’adaptativité pour un solveur de l’équation de Vlasov
LES TPE EN SCIENCES DE L’INGENIEUR
Soutenance de stage 16 Mai au 5 Août 2011
Soutenance de stage 16 Mai au 5 Août 2011
Soutenance de stage 16 Mai au 5 Août 2011
Système d’exploitation
1 Simulation d'atmosphère locale sur des agglomérations des Alpes : le cas de Grenoble JP Chollet et M. Claeyman (et C. Staquet)‏ laboratoire LEGI, Université.
Journée scientifique 5 juin Cluster de recherche ISLE Projet « Calcul Hautes Performances et Informatique Distribuée » Proposition de renouvellement.
1 01 février 2005 Montpellier Franck MERCIER Ouan-Zan ZANIFE CLS, Direction Océanographie Spatiale Contribution de l’Altimétrie Spatiale à l’Hydrologie.
Perspectives recherche en océanographie.
Prototypage Rapide Du modèle numérique au modèle physique
1 Vers la gestion de la cohérence dans les processus multi-modèles métier Wolfgang THEURER Ecole Nationale Supérieure d’Ingénieurs des Etudes et Techniques.
Projet CiGri CIMENT GRID Grille grenobloise pour la simulation numérique par méthodes de Monte Carlo Laurent Desbat (coordinateur scientifique) et Nicolas.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
NOMADE : Un réseau informatique mobile
Canevas de réflexion pour nos spécialités Big Data 3 Février 2014.
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes, C. Pinazo Juin 2015.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
Proposition de possibilité d’évolution de nos spécialités Deux projets (liés) : Projet 1 : Informatique Computationnelle – Etudiants 4 e et 5 e IR Projet.
De quoi parle t–on ? Comment la mettre en œuvre ? L’interdisciplinarité Réforme du Collège – Paris – 10 décembre 2015.
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes UMS 3470 Pytheas C. Pinazo UMR 7294 MIO Juin 2015.
Journées informatique IN2P3/Dapnia, Lyon Septembre 2006 Consolidation des serveurs par virtualisation Retour d’expérience sur l’utilisation de VMware.
Entretiens Louis le Grand 29 et 30 août Entretiens Louis le Grand – 29 et 30 Août 2005 Étude de cas CS  Jacques DUYSENS (CS Communication & Systèmes)
Modèles de coût Vincent Breton LPC- IdGC Crédit: O. Guinaldo, A. Guitton, A. Mahul.
1 Journées Scientifiques novembre 2003 MoMaS EDF Electricité de France Multi Domaines Simulation Multi Domaines Laurent Loth - Andra.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
TRAAM Académie de Dijon Année Mars 2015.
MOMAS - DS/SR - GO © GDR MOMAS 16 & 17 janvier Lyon Réunion de lancement du GDR MOMAS La modélisation et la simulation pour les études du stockage.
1 EDF Electricité de France novembre 2003Journées scientifiques GdR MOMAS GdR MOMAS – Pourquoi ?  Echanger les informations entre les acteurs du.
Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
Transcription de la présentation:

Plate-forme MIRAGE Méso-Informatique Répartie pour des Applications en Géophysique et Environnement

Equipes concernées Océanographie : Equipe Modélisation des écoulements océaniques et de méso-échelle - LEGI Hydrologie : Equipe Hydrologie de surface - LTHE Glaciologie : Groupe Modélisation des calottes polaires - LGGE Biologie : Equipe Modélisation numérique - LEA Mathématiques appliquées : Projet IDOPT (Identification et optimisation en physique et en environnement) - LMC

Contexte De nombreuses interactions pré-existantes, autour de : thématiques scientifiques communes ou proches approche commune : la modélisation numérique outils communs: modèles numériques, super-calculateurs...

Une approche informatique commune Le même type de modèles numériques : zone géographique 3-D, physique “non standard”, évolution temporelle différences finies, Fortran 90 des modèles communs (météo, océano) Des besoins informatiques proches : Maillage spatial 3D : nœuds Evolution temporelle : pas de temps Stockage important (dumps réguliers) Développements et mise au point Pré- et post-traitements

Une approche informatique commune (2) Les calculateurs : Centres nationaux (IDRIS, CGCV-CEA) Monoprocesseur ou parallélisme gros grain Stations locales (difficilement…) Les limitations : File d’attente : très pénalisant pour les phases de développement Archivage distant : lourdeur des pré- et post- traitements Utilisation de supercalculateurs pour des tâches autres que de la production

7 bi-processeurs: EV6, 2.5 Go RAM, 30 Go disque 3 baies RAID 100 Go LMC LGGE LEGI- LTHE IDRIS CGCV-CEA (SC 232) Gigabit 100 Mo/s

Chronologie 1999 : construction du projet, demandes de subventions, choix du matériel Janvier - mai 2000 : démarrage de la plate-forme, tests, mise en réseau --> configuration “minimale” de travail Juin - septembre 2000 : production dans cette configuration Septembre 2000 : recrutement L. Viry (IR UJF) Janvier 2001 : upgrade de routeurs --> meilleure fiabilité, meilleurs débits Mai 2001 : OS 5.1 true cluster + augmentation des disques (soutien INRIA) Eté 2001 : site web Septembre 2001 : gestionnaire de batchs LSF

Fonctionnement actuel Bonne stabilité des machines Environ 50 logins Charge élevée, pour des tâches correspondant bien aux objectifs initiaux

Evolution technique Upgrade des processeurs début 2002 : Coût estimé : 500 kF (financement INRIA + contrats) Jouvence en 2004 : Contrat Plan Etat-Région : 1.5 MF

Perspectives Montée en puissance des expérimentations et du calcul parallèles (via projets de décomposition de domaine et de couplage de modèles) Expérimentations de type métacomputing Meilleure mutualisation des compétences en calcul scientifique (L. Viry)