PROJET CAPS Compilation, Architecture, Parallélisme et Système.

Slides:



Advertisements
Présentations similaires
Architecture de machines Le microprocesseur
Advertisements

Master de recherche informatique Université de Montpellier 2
Types des systèmes d’exploitation
PLAN du COURS Introduction Structure des Systèmes Informatiques
Objectif de l’exposé.
1 Les technologies XML Cours 1 : Les Web Services et Architectures Orientées Services Fé vrier Version 1.0 -
A abstraction b assembleur c nombre binaire d bit e cache f UC g puce h compilateur i famille dordinateurs j contrôle k chemin de données l défaut m dé
Objectifs Identifier l’interface entre le logiciel de plus bas niveau et le matériel Comprendre la problématique de l’architecture du jeu d’instruction.
la programmation en langage C
Exercice Notre programme s'exécute en 10 secondes sur A, qui dispose d'une horloge à 100Mhz. Nous tentons d'aider un concepteur à construire une machine.
Architecture Systèmes
18 avril 2002réunion Datagrid France1 E-toile Plate-forme RNTL 2001 Environnement matériel et logiciel pour le développement et l expérimentation de grille.
Modèle de coût algorithmique intégrant des mécanismes de tolérance aux pannes Samir Jafar, Thierry Gautier, Jean Louis Roch Laboratoire ID-IMAG Equipe.
Jean-François Deverge, Sébastien Monnet
Informatique parallèle hautes performances
Modèle polyédrique: fondements et application à la parallélisation de programmes réguliers Tanguy Risset DIF 2001/2002.
Parallélisation d’un Algorithme CNFT
Architecture de machines Principes généraux
Architecture de machines Le microprocesseur
2 ième édition 1 Introduction aux systèmes dinformation Un outil essentiel pour lentreprise branchée Chapitre James A. OBrien © 2003 Les Éditions de la.
Projet de veille technologique
Architecture de grille générique, multi-
Les Systèmes d’Exploitation
Android est une plateforme mobile open source et entièrement paramétrable. Elle a été créée afin de mettre à disposition des développeurs toutes les fonctionnalités.
Programmation Approche composants Ing5 SI
Programme et Langage C++
Optimisation et parallélisation de code pour processeur à instructions SIMD multimedia François Ferrand.
Structures des Systèmes d’Exploitation
Franck Cappello CNRS, LRI, Université Paris-sud
Programmation concurrente
Architectures de grappes de PC
LIFI-Java 2004 Séance du Jeudi 9 sept. Cours 1. La notion de langage Décrire une tâche à effectuer –programme Écrire à un haut niveau –facile pour lutilisateur.
Parallel Programming in C with MPI and OpenMP
Pr ZEGOUR DJAMEL EDDINE Ecole Supérieure dInformatique (ESI) Plate-forme.NET.
Chap. 2 - Structure d’un ordinateur
Informatique et Unix Jean-Pierre Gallou
Les différents langages de programmation
Informatique 1. Les applications de l’informatique
Importance du réseau dans des architectures MIMD Tout échange entre les processeurs nécessite un transfert de données via le réseau.
Logique programmée & Microprocesseurs
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
Présentation rapide d’
8INF856 Programmation sur architectures parallèles
André Seznec Caps Team IRISA/INRIA 1 Processeurs Hautes Performances Panorama et Nouveaux Défis André Seznec IRISA/INRIA
Modèles et protocoles de cohérence des données en environnement volatil Grid Data Service IRISA (Rennes), LIP (Lyon) et LIP6 (Paris) Loïc Cudennec Superviseurs.
Langages de programmation Ordinateurs = Machines à exécution.  D’où la nécessité d’outils de communication qui s’adaptent le mieux aux utilisateurs. Comment.
1 Extension du modèle de composants CORBA avec accès concurrent à des données partagées Travail réalisé par : Landry BREUIL PFE, ISIMA Encadrants : Gabriel.
ARPO: architecture des processeurs superscalaires,VLIW et optimisation André Seznec et François Bodin.
Noyau Linux et multi-processeur sur plateforme embarquée ST50 Vendredi 18 Mars 2005 – Thomas Petazzoni.
D. E ZEGOUR Institut National d ’Informatique
PROJET CAPS Compilation, Architecture, Parallélisme et Système.
1 École des Mines de Saint-Etienne. 158, cours Fauriel Saint-Etienne Cedex 2. Tél Fax Jean-Jacques Girardot
Introduction et Généralités sur l’Algorithmique
Simulation de jeux d’instructions à hautes performances
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
PaCO++ André Ribes Réunion Hydrogrid Rennes 15/09/03.
ARPO: architecture des processeurs superscalaires,VLIW et optimisation André Seznec et François Bodin.
Simulateur de microcontrôleur Intel 80C51
UE MAREP Cours 12 : Révisions
21/02/2003DEA DISIC 1 Grid Computing Programming the grid: Distributed Software Components, P2P and Grid Web Services for Scientific Applications Tarak.
Introduction aux architectures parallèles
Patricia Renault UPMC 2005/2006
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes, C. Pinazo Juin 2015.
Projet GDS de l’ACI MD Projet PARIS IRISA, Rennes.
Génération de simulateurs de jeux d’instructions compilés Ronan AMICEL IRISA / Equipe CAPS.
1.1: notions de bases de l’informatique
Proposition de possibilité d’évolution de nos spécialités Deux projets (liés) : Projet 1 : Informatique Computationnelle – Etudiants 4 e et 5 e IR Projet.
Plateforme de Calcul Intensif “HPC” de l’lnstitut Pytheas M. Libes UMS 3470 Pytheas C. Pinazo UMR 7294 MIO Juin 2015.
Transcription de la présentation:

PROJET CAPS Compilation, Architecture, Parallélisme et Système

2 CAPS: Qui sommes nous ? 5 chercheurs/professeurs, 1 ingénieur expert, 10 doctorants trois activités imbriquées: –architectures hautes-performances –techniques d’optimisation de code, outils et environnements de programmation –systèmes pour architectures hautes-performances

3 Comprendre les architectures hautes performances depuis 1991, veille technologique : –évaluation détaillée des microprocesseurs –indépendante des constructeurs –diffusée dans les milieux académiques et industriels –sept rapports existent

4 Proposer les nouvelles architectures «skewed associative caches» «decoupled sectored caches» techniques de prédiction de branchement Simultaneous Multithreading

5 Evaluer les nouvelles architectures Simulation fine: cycle par cycle Analyse des performances Tracer les applications

6 Comment optimiser les applications exploiter les hiérarchies mémoire exploiter le parallélisme d’instructions transformer le code source transformer le code assembleur comprendre les interactions entre code haut et bas niveau

7 Les outils logiciels La nécessité d’expérimenter ! Des systèmes prototypes: –TSF : aide au portage des programmes Fortran orienté performance –MENHIR: Compilation de Matlab –CT++: bibliothèque C++ pour le traitement d’image –SALTO: manipulation de langage assembleur

8 SALTO: Sytem for Assembly-Language Transformations and Optimizations analyse syntaxique de codes assembleurs –description fine de la machine cible –interface orienté objets pour l’écriture d’applications cibles décrites par : le jeux d’instructions, format assembleur utilisation des ressources du processeur pour chaque instruction, etc. permet : –l’instrumentation ou la transformation de code assembleur, –la mise en oeuvre de techniques d’ordonnancement, –la mise en oeuvre d’allocations de registres, etc. existe pour Sparc, Alpha, Mips, Tri-Media, TMSC62X, Pentium

9 Et le système ? offrir une haute performance sur les architectures parallèles –mémoire virtuelle partagée –échange de message: bas-niveau et haut-niveau réalisation de prototypes systèmes –intégration dans des environnements –évaluation avec des applications nécessitant la haute- performance (calcul scientifique + multimédia)

10 Plate-forme d’expérimentation EDU SCI Switch Box Service nodes SCI ring (200 MB/s) Ethernet Switch 100 Mb/s Compute nodes PC SMP 2 x 200 Mhz Pentium Pro 128 Mo EDO RAM 2 Go Disk PCI-SCI Card mémoire virtuelle partagée –conception d’une MVP pour le NEC Cenju-3 –obtenir des informations du compilateur (HPF, Fortran-S) pour piloter efficacement la MVP programmation parallèle par composants logiciels –conception d’un exécutif pour l’exécution // de composants logiciels –extension du langage IDL pour la programmation parallèle

11 Programmer les machines parallèles (1) mémoire virtuelle partagée –conception d’une MVP pour le NEC Cenju-3 –obtenir des informations du compilateur (HPF, Fortran-S) pour piloter efficacement la MVP programmation parallèle par composants logiciels –conception d’un exécutif pour l’exécution // de composants logiciels –extension du langage IDL pour la programmation parallèle

12 Programmer les machines parallèles (2) génération/exécution de code distribué sur Cluster de stations de travail –Projet Do!: Exécution parallèle et distribuée de Java –meçanismes de communication et gestion de threads pour Java exécutif pour OpenMP

13 Les stages !! Stratégie d’optimisation de code dans TSF Simulation d’un processeur exécutant dans le désordre Etude du couplage de codes de calcul scientifique sur Cluster de PCs Contrôle d’un système de mémoire partagée pour l’exécution de programmes HPF Exécutif pour OpenMP sur cluster de stations de travail Mécanismes de gestion de threads entre plusieurs machines virtuelles Java

14 Contact: André Seznec, Francois Bodin, Thierry Priol, Yvon Jégou, Jean-Louis Pazat Bat E 205