Méso-Grille Marseille :Simulation Intensive pour les Sciences de l’Ingénieur  Issue de plusieurs Programmes Pluri- Formations dans le domaine du calcul.

Slides:



Advertisements
Présentations similaires
1 HPC pour les opérations. Sommaire Quelques rappels sur Windows Compute Cluster Server Déploiement de Compute Cluster Administration de Compute cluster.
Advertisements

Matériels Composants physiques de l’ordinateur.
A NETWORK-AWARE DISTRIBUTED STORAGE CACHE FOR DATA INTENSIVE ENVIRONMENTS Brian L. TIERNEY, Jason LEE, Brian CROWLEY, Mason HOLDING Computing Sciences.
Master de recherche informatique Université de Montpellier 2
18 avril 2002réunion Datagrid France1 E-toile Plate-forme RNTL 2001 Environnement matériel et logiciel pour le développement et l expérimentation de grille.
Informatique parallèle hautes performances
Parallélisation d’un Algorithme CNFT
Architecture de machines Principes généraux
ARCHITECTURE DES ORDINATEURS
Alain Romeyer - 15/06/20041 UMH Machines livrées le 08/04/2005 Configuration choisie (différente des autres sites) : 6 machines SUN Fire V20Z.
Les systèmes multiprocesseurs Ph. Sèvre le 19/12/08.
Gestion de l'hétérogénéité et des longues distances dans une grille de calcul.
Plate-forme MIRAGE Méso-Informatique Répartie pour des Applications en Géophysique et Environnement.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
D. E ZEGOUR Institut National d ’Informatique
CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
Projet CiGri CIMENT GRID Grille grenobloise pour la simulation numérique par méthodes de Monte Carlo Laurent Desbat (coordinateur scientifique) et Nicolas.
Architecture des ordinateurs, Environnement Numérique de Travail
PROJET CAPS Compilation, Architecture, Parallélisme et Système.
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes, C. Pinazo Juin 2015.
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes UMS 3470 Pytheas C. Pinazo UMR 7294 MIO Juin 2015.
Après la troisième ? La voie générale et technologique La voie professionnelle ou Choisir le diplôme que l’on veut préparer … en fonction de l’élève que.
FACTORY systemes Module 1 Section 2 Page 1-7 Introduction InSQL FORMATION InSQL 7.1.
Question de gestion 13 : Le document peut-il être vecteur de coopération ? Le document : - Dématérialisation des documents - Partage, mutualisation, sécurisation.
1 REPUBLIQUE ALGERIENNE DEMOCRATIQUE ET POPULAIRE MINISTERE DE L’ENSEIGNEMENT SUPERIEURE ET DE LA RECHERCHE SCIENTIFIQUE UNIVERSITE ABDELHAMID IBN BADIS.
Architecture matérielle et logicielle. Sommaire Un peu d’histoire : Naissance de l’informatique Organisation matérielle des ordinateurs Processeur, Mémoire,
Séminaire SoSySec 25 mars 2016page 1 Processus de développement de système contraint par des préconisations de sécurité d'un SI urbanisé Jacques Simonin.
Équipements d'interconnexion téléinformatique l Répéteurs, amplificateur, interface, commutateur? l Pont (bridge) l Aiguilleur (Routeur) l Passerelle (Gateway)
Paris Saclay Bordeaux St Etienne Optique, image, design, énergie, éclairage Technologies numériques de l’optique Ingénierie avancée des Systèmes optiques.
PetaSky: Expérimentations avec HadoopDB et Hive 1 Amin Mesmoudi.
ASR5 Système pour architectures multicœurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques Répartis Gaël Thomas
V- Identification des ordinateurs sur le réseau??? ? ? ? ?
ECOLE CENTRALE DE LYON Fondée en Quelques chiffres  Campus  Effectifs étudiants  Budget 18 ha m² pour la recherche 403 chambres et 240.
Institut Français du Pétrole Département Mathématiques Appliquées 1 Calcul Scientifique (13 ingénieurs, 1 postdoc, 6 thésards) Statistique et analyse de.
1 Initiation à la micro-informatique Le matériel CFPPA d’AUXERRE La Brosse Réalisation : Gilles BERDAL 2005 un clic pour la suite… L’Unité Centrale.
Module S42 Chapitre 1  Présentation de l'administration des comptes et des ressources.
Automates Programmables Industriels ( ITEEM 2004 ) I.T.E.E.M de BEAULIEU Enseignante : Mme RECHID CHAPITRE 7 Le Logiciel PL7 Présentation - Ergonomie Les.
1 OPTION 2AP-2S — SPECKLE & HOLOGRAPHIE Cursus Ingénieur, 2 ème année - Palaiseau.
Groupe de Travail Th.4 Chimie Carlo Adamo Equipe de Modélisation des Systèmes Complexes Ecole Nationale Supérieure de Chimie de Paris
Migration du système de sauvegarde d’une infrastructure locale à un système centralisé IN2P3 101/06/2016 HEPIX Spring 2013 Muriel Gougerot (LAPP) and Remi.
StratusLab is co-funded by the European Community’s Seventh Framework Programme (Capacities) Grant Agreement INFSO-RI La technologie « cloud » M.
1 Journées Scientifiques novembre 2003 MoMaS EDF Electricité de France Multi Domaines Simulation Multi Domaines Laurent Loth - Andra.
Rappel : les différentes architectures de stockage Attachement direct NAS SAN.
LPSC, journée de lancement TIDRA B. Boutherin 1/12 Tier 3 du LPSC Grenoble Une infrastructure solide, originale et éco-responsable Des ressources importantes.
Enseignement spécifique Sciences de l’ingénieur EnseignementsPremièreTerminale Sciences de l’ingénieur (1h +1h) cours ( 2h+2h) TP Physique Chimie 3h.
P ROJET C ONNEC S ENS CPER 2016 D ÉFIS A UDACE ET S YMBIOSE JP C HANET, M M ISSON, L R OYER onnec enS.
1 GDR 717 MACS Groupement de Recherche en Modélisation, Analyse et Conduite des Systèmes Dynamiques.
Supervision EC-Net AX Serveurs Web EC-BOS AX. ARCHITECTURE Les solutions EC-Net AX EC-Net AX Supervisor EC-Net AX EnerVue EC-Net AX Security  EC-Net.
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
1 Journées Scientifiques novembre 2003 Thème 4 : problèmes inverses et analyse de sensibilité MoMaS EDF Electricité de France Problèmes inverses.
CSI 3531 Systèmes d’exploitation Nathalie Japkowicz 1.
JOURNÉE CALCUL ET SIMULATION DE L'UNIVERSITÉ PARIS SUD Organisée par le Groupe de Travail Informatique Scientifique de Paris Sud.
Déploiement de la solution de supervision FAN au sein de société CBI et de ses filiales au Maroc et en Afrique.
Section 07 du Comite National de la Recherche Scientifique.
1LuminyGrid – 27 Avril 2010 LuminyGrid Grille de calcul scientifique pluridisciplinaire à vocation régionale  Projet initié en 2009 s’appuyant sur les.
Les enseignements d’exploration du secteur technologique industriel  La réforme du lycée  La valorisation de la voie STI Les enseignements d’exploration.
LCG Le T2 du LPC Pierre-Louis Reichstadt LPC Clermont-Ferrand.
Tier 2 au LAPP. Plan Historique Objectifs Infrastructures Status/métriques Avenir Conclusion.
Equipe Projets Grille Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 28 mai 2004.
Tutoriel MATLAB-SIMULINK Projet UNIT 2009 Partenariat : Ecole des Mines d’Alès Ecole des Mines de Saint Etienne Université de Nice Sophia-Antipolis.
Université Ferhat Abbas –Sétif 1 Centre des Systèmes et Réseaux d’Information Et de Communication, de Télé-enseignement et D’Enseignement à Distance Rapport.
Outils de simulations à l’IRSN Christophe Serres, Gregory Mathieu, Magdalena Dymitrowska, Marc Bourgeois Direction de la Sûreté des Usines, des laboratoires,
Stratégie vers la communauté de recherche en informatique V. Breton.
Capteur pour le monitoring de la qualité de l’eau et la qualité de l’air Tayeb MOHAMMED-BRAHIM.
Jean-Philippe PICARAT - Pôle TICE - Cnam Pays de la Loire Le numérique, un langage en soi.
Eric Fede : Obernai Intégration des services grille dans l'exploitation des systèmes informatiques du laboratoire.
F. Genova et groupe de travail « Données » Prospective IDG, 6/10/2008 Groupe de travail transverse « Grilles de Données »
1 Axe Modélisation Aérodynamique et Transferts Historique : Une partie de l’équipe ”Ecoulements et Transferts” du LaTEP (EA 1932) Composition : * 2 PR.
INFSO-RI Enabling Grids for E-sciencE L’activité EGEE au CINES Nicole Audiffren, Adeline Eynard et Gérard Gil Réunion de la fédération.
Transcription de la présentation:

Méso-Grille Marseille :Simulation Intensive pour les Sciences de l’Ingénieur  Issue de plusieurs Programmes Pluri- Formations dans le domaine du calcul haute perfomance pour les laboratoires de Mécanique à Marseille.(CHPM, SNIM, mmg, … )  Regroupe 6 UMR CNRS : IRPHE(Institut pour les Phénomènes Hors Equilibre)/ IM2NP(Institut Matériaux Microelectronique Nanosciences de Provence) IUSTI(Institut Universitaire des Systèmes Thermiques Industriels) LMA (Laboratoire Mécanique Acoustique) M2P2 (Modélisation Mécanique & Procédés Propres) LATP (Laboratoire d'Analyse, Topologie, Probabilités;(DS1)

 Objectif : un outil de calcul de taille supérieur à celui d’un laboratoire. Accueil d’équipes de Simulation Numérique « méso echelle », …  Rationalisation des moyens de calcul: -Choix hétérogènes des moyens de calcul, guidés par les besoins spécifiques de chaque laboratoire - Opération mutualisée de la grille physique - Veille technologique, R&D de gestionnaire de grille -Développement d’un outil de calcul polymorphe pour les sciences de l’Ingénieur (D.EYHERAMENDY, ECM, M.MEDALE IUSTI)

Equipe Scientifique et Technique partenaire de la Grille Gérard Henry (*) : LATP Marc Médale, Yann Jobic(*) : IUSTI Hervé Moulinec, Martine Culioli : LMA Umberto d'Ortona, Dominique Fougere : M2P2 Geoff Searby, P. Joly : IRPHE Dominique Eyheramendy, Olivier Page ECM (*) Chargés de la construction physique de la grille Chargés de la mise en place de l’outil de gestion de la grille (**) Christian Surace:OAMP/LAM Contact pour le point d'accès grille reservé

Les moyens de Calcul de la Grille (à réactualiser) LMA : Serveurt Integrity RX8640 -HP, architecture ccNuma, 16 procs Itanium2 de 64Go de mémoire IUSTI : Serveur SUN FIRE X4600, 2xSMP 8 proc double cœur, 128 Go RAM Stockage réseau : Sun Storage Tek 4320 NAS 2x2,4To LATP : Cluster de Stations Quadcore IRPHE/IM2MP : Cluster à base de noeuds opteron, Bi Processeurs,Xeon Quadcore Baie de Stockage NetAPP Choix du gestionnaire de la grille : GLOBUS

CalculateurNb CPUInterconnexionPerf. crête (1) Cluster AMD Athlon 32 bits, 1.8Ghz et 2 Ghz, 2To Stock. 54 haut débit et basse latence Dolphin/SCI(2.5Gbps) et Gigabit 200 Gflops (2) SGI Altix350 Itanium2,10x1.5Ghz 4 et 6Mocache,64GoRAM,2.5To Stockage 32Numalink192 Gflops (3) Cluster IBM-xeon,15xbi-quadX3550 3GHZ, 16,32, 64GoRAM, 12Mocache,7To Stockage 120Infiniband-SRC1,2Tflops Description 27 noeuds de calcul biprocesseurs SMP. Chaque noeud biprocesseur dispose au minimum de 1 Go de mémoire, 2 d’entre eux disposent de 2 Go. Les noeuds de calcul sont interconnectés entre eux par un réseau très haut débit et basse latence SCI/Dolphin (BP : 2.5Gbps et latence : 1.5 à 2.5 µs) Le système d’exploitation est l’OS sous l’environnement MandrakeCluster2. Un serveur virtuel (SEANODES : NFS // vertical) propose d’une baie virtuelle de stockage d’une capacité totale de 1.2 To accessible par l’ensemble des nœuds. Le cluster est connecté au réseau Phoc’ean et à la grille SNIM en Gigabit Ethernet. Les programmes sont gérés par « Open-PBS » et les clusters par « Globus ». 16 nœuds de calcul biprocesseurs SMP. Chaque nœud dispose de 4Go de mémoire RAM, et chaque processeur de 4Mo de mémoire cache. Les nœuds sont interconnectés par un switch NUMALink à 6,4 Go/s et 124 ns de latence. Le système d’exploitation est l’OS SGI propack5 (basé sur Suse). Une baie de stockage de 2.5 Tera octet est accessible à l’ensemble des utilisateurs. Le calculateur est géré comme un calculateur SMP de 32 processeurs accédant 64Go de mémoire centrale. Les codes sont parallélisés en OpenMP ou MPI et leur optimisation est facilitée les commandes « dplace » et « cpuset » Cluster IBM 16 nœuds x3550 bi-quadcore 3Ghz,12Mo cache, et 64 Go RAM. Les nœuds sont reliés en infiniband. Le nœud Maitre possède 6 disques de 300Go. Les nœuds de calcul sont reliés au serveur par Gigabit pour admin et infiniband pour calcul. Il est administré en Redhat, CFM pour le gestionnaire de nœuds et OpenPBS pour le Batch. Ce cluster sera accessible à la grille de calcul Marseille SNIM.

Quelques développement distribués au M2P2: DOOM: Distributed objects over MPI, ou développement d'outils pour faciliter le déploiement sur cluster de codes de mécanique des fluides, génie des procédés, physique des granulaires, MHD,... Umberto D'Ortona M2P2 UMR-6181 NumGRID : Numerical Grid for large scale numerical modeling : Un outil numerique de grille pour expoiler la grille et développer les applications distribuées.(ProxyMpi)D.Fougere M2P2, V.Malyshkin Université d’Etat de Novosibirsk Fire3D : Modélisation de Feux de Forets, code 3D parallel (Openmp) Dominique Morvan M2P2 UMR6181 Mars3D: Modélisation hydrodynamique code 3D Parallel (OpenMPI) Bernard Roux M2P2 Utilisation distribuée de Codes Matlab Bibliotheques scientifiques paralleles