PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.

Slides:



Advertisements
Présentations similaires
Yassine Lakhnech Prof. UJF Verimag
Advertisements

Architecture de machines Le microprocesseur
La machine virtuelle virtuelle utopie et/ou réalité ?
PLAN du COURS Introduction Structure des Systèmes Informatiques
Chargé de recherches au CNRS
Objectif de l’exposé.
A abstraction b assembleur c nombre binaire d bit e cache f UC g puce h compilateur i famille dordinateurs j contrôle k chemin de données l défaut m dé
Objectifs Identifier l’interface entre le logiciel de plus bas niveau et le matériel Comprendre la problématique de l’architecture du jeu d’instruction.
People want to do X, but computers can only do Y. This leads to a problem. My job is to explain how this problem can be solved.
Le Concept du programme enregistré
EDE technologiques Une approche globale.
Informatique parallèle hautes performances
Modèle polyédrique: fondements et application à la parallélisation de programmes réguliers Tanguy Risset DIF 2001/2002.
Plate-forme pour l’étude et la conception de systèmes automatisés
Architecture de machines Principes généraux
Réalisé avec le soutien de 2005 FAROS : composition de contrats pour la Fiabilité d'ARchitectures Orientées Services Définir un environnement de composition.
Thomas LOPEZ - Equipe BUNRAKU Candidature au monitorat IFSIC – Mardi 6 Octobre 2008.
Architectures et systèmes à microprocesseurs – ELEC288
Thomas LOPEZ - Equipe BUNRAKU Candidature au monitorat IFSIC – Mardi 6 Octobre 2008.
Architecture des Ordinateurs
ENST 31/01/ Un environnement de test non intrusif de systèmes temps-réel distribués Claire.
Optimisation et parallélisation de code pour processeur à instructions SIMD multimedia François Ferrand.
Techniques de test Boulanger Jean-Louis.
Pr. Alain Greiner (LIP6 - ASIM) Daniel Millot, Philippe Lalevee (INT)
Les systèmes multiprocesseurs Ph. Sèvre le 19/12/08.
Introduction Objectifs du cours Évaluation Références
Systèmes Superscalaires et VLIW
Gei 431 Architecture des ordinateurs II – Frédéric Mailhot Et maintenant, où allons-nous? Après toutes les techniques vues jusquici: Que peut-on faire.
Détection du meilleur format de compression pour une matrice creuse dans un environnement parallèle hétérogène Olfa HAMDI-LARBI.
Chap. 2 - Structure d’un ordinateur
L’adaptativité pour un solveur de l’équation de Vlasov
Module 8 : Surveillance des performances de SQL Server
Optimisation des performances
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
Présentation rapide d’
Supports de formation au SQ Unifié
8INF856 Programmation sur architectures parallèles
André Seznec Caps Team IRISA/INRIA 1 Processeurs Hautes Performances Panorama et Nouveaux Défis André Seznec IRISA/INRIA
TD0 - Rappels. Acquis du programme 1 ère année Analyser et modéliser : un problème, une situation ; Imaginer et concevoir : une solution algorithmique.
EVOLUTION DU SYSTEME D’INFORMATION
Un outil d’estimation du temps d’exécution au pire-cas par analyse statique de programmes IRISA - Projet Solidor Antoine COLIN.
Thomas LOPEZ - Equipe BUNRAKU Candidature au monitorat INSA– Vendredi 10 Octobre 2008.
Atos, Atos et le poisson, Atos Origin et le poisson, Atos Consulting ainsi que le poisson seul sont des marques déposées d'Atos Origin SA. © 2006 Atos.
Introduction au Génie Logiciel
ARPO: architecture des processeurs superscalaires,VLIW et optimisation André Seznec et François Bodin.
PROJET CAPS Compilation, Architecture, Parallélisme et Système.
IRISA/INRIA. Processeurs Hautes Performances Panorama et Nouveaux Défis André Seznec IRISA/INRIA
Construction d'une hiérarchie mémoire faible consommation
Gei 431 Architecture des ordinateurs II – Frédéric Mailhot Étude de cas Maintenant qu’on a vu les pipelines, le superscalaire, le VLIW, la gestion des.
1 École des Mines de Saint-Etienne. 158, cours Fauriel Saint-Etienne Cedex 2. Tél Fax Jean-Jacques Girardot
Présentation AICHA REVEL INGENIEUR D’ÉTUDE STERIA DEPARTEMENT TRD
Introduction et Généralités sur l’Algorithmique
Simulation de jeux d’instructions à hautes performances
UNIHAVEGE De l’ «UNIversalité » du générateur d’aléa irreproductible HAVEGE projet ACI sécurité nov 2003 – nov 2006.
Évolution des (micro)processeurs et des systèmes embarqués
Architecture et technologie des ordinateurs II
Architecture des ordinateurs
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
ARPO: architecture des processeurs superscalaires,VLIW et optimisation André Seznec et François Bodin.
PROJET CAPS Compilation, Architecture, Parallélisme et Système.
Simulateur de microcontrôleur Intel 80C51
1 Microprocesseurs Hautes Performances André Seznec IRISA/INRIA
Projet GDS de l’ACI MD Projet PARIS IRISA, Rennes.
30/11/2007Architecture logicielle pour l’adaptation dynamique; Application à la réplication de données1 Architecture logicielle pour l’adaptation dynamique.
Génération de simulateurs de jeux d’instructions compilés Ronan AMICEL IRISA / Equipe CAPS.
Comment choisir son MCU (ou autre DSP, FPGA …) ?
Proposition de possibilité d’évolution de nos spécialités Deux projets (liés) : Projet 1 : Informatique Computationnelle – Etudiants 4 e et 5 e IR Projet.
Java Réalisé par: Mouna POKORA. PLAN: Définition : Historique: Caractéristiques: un langage orienté objet: un langage interprété : un langage portable:
Département Informatique L’optimisation Laurent JEANPIERRE IUT de CAEN – Campus 3.
Transcription de la présentation:

PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées

Projet CAPS 2 CAPS: Qui sommes nous ?  1 chercheur, 2 professeurs, 11 doctorants, 3 ingénieurs  deux activités imbriquées:  architectures hautes-performances  compilation orientée performance, outils et environnements de programmation

3 Un stage, une thèse en architecture/compilation !?

Projet CAPS 4 Que sont devenus les doctorants de CAPS ?  Depuis 1997:  S. Hily, Intel, USA  S. Chauveau, Philips National labs, NL  D. Truong, HP labs, USA  E. Rohou, ST Microelectonics, USA  P. Michaud, INRIA (en sabattique chez Intel)  Y. Mével, Sogitec, Rennes  T. Lafage, Philips, Limeil-Brevannes

5 CAPS: que faisons nous ?

Projet CAPS 6 Architecture des microprocesseurs  Comprendre les architectures hautes performances  veille techno  académiques et industriels  Proposer les nouvelles architectures  caches: skewed associative caches,..  prédiction de branchement  Simultaneous Multithreading  nouvelles organisations de processeurs  le « low power »

Projet CAPS 7 Les outils pour l’architecture  Simulation fine: cycle par cycle  Tracer les applications  Calvin2 + DICE  ABSCISS: Génération automatique de simulateurs

Projet CAPS 8 Les infrastructures logicielles pour la compilation  La nécessité d’expérimenter !  Des systèmes prototypes:  TSF : aide au portage des programmes Fortran orienté performance  SALTO: manipulation de langage assembleur

Projet CAPS 9 Compilation: projets en cours  CAHT: Intégration du Case Base Reasoning dans TSF  Compilation itérative pour les systèmes enfouis  ALISE: une infrastructure pour l ’optimisation bas-niveau  ATTLAS: optimisation haut niveau/ bas niveau  Compilation et « low power »

10 Les stages proposés

Projet CAPS 11 Génération d’aléa irreproductible  Besoin d’aléa irreproductible en CRYPTOGRAPHIE  Méthodes actuelles: 1 Kbit/s logiciel, 75Kbits/s matériel  Les microprosseurs modernes:  nombreux états non directement accessibles  compteurs de cycles  Principe établi, stage: étude et développement du générateur sur différentes platteformes (matérielles, OS)

Projet CAPS 12 Préchargement matériel pour les processeurs hautes performances du futur  performance globale très dépendante du système mémoire  cache L1: 1 cycle, cache L2 : 10 cycles mémoire principale 100 cycles  bientôt 1000 cycles  On ne peut pas toujours perdre ces cycles:  préchargement logiciel ou matériel  marche relativement bien pour masquer 10 cycles  Stage: peut-on faire qq chose en utilisant l ’espace mémoire sur le composant

Projet CAPS 13 Criticalité et non-criticalité des accès mémoire  Le problème:  on ne connaît la présence d’une donnée dans un cache que très tard, conflits d ’accès idem  Entre-temps on peut avoir pris la décision de lancer de nombreuses instructions dépendantes d ’où annulation, perte de performances, consommation inutile dénergie etc  Le stage:  explorer les solutions pour éviter (tant que faire se peut) ses situations: prédiction de la criticalité d ’un load utilisation de load à latences multiples

Projet CAPS 14 Simulation parallèle de systèmes complexes  Étude d’architectures utilise la simulation:  pb surcout important: donc jeu de données plus petits  approche développée pour ABSCISS: simulation compilée partie importante faite à la compilation mais toujours des problèmes de performances pour systèmes très complexes (multiprocesseurs, composants hétérogènes)  Stage:  Simulation parallèle : Pas parallèliser le simulateur, mais générer le simulateur parallèle

Projet CAPS 15 Exploitation interprocédurale du parallélisme d’instruction  Le parallélisme d ’instruction sur les architectures VLIW:  au niveau du bloc de base  au niveau des boucles: pipeline logiciel  au niveau de la procédure: trace scheduling  Le stage: un coup plus loin  entre les procédures  Faisabilité, analyse du potentiel:  sur l ’architecture Trimedia de Philips

Projet CAPS 16 Gestion semi-statique d’un cache d ’instruction  Les performances d ’un processeur dépendent des performances de son cache d’instruction.  Le logiciel/OS a (parfois/souvent) une bonne connaissance de qui devrait rester dans le cache.  Gestion tout matériel ne convient pas toujours: Temps réel: Worst Case Execution Time optimisation de la performance du code: –préchargement  Stage:  que verouiller dans le cache d ’instructions ?  Que, quand précharger dans le cache d’instructions

Projet CAPS 17 Contacts:   André Seznec, François Bodin  {seznec,