Ecole Informatique 2010 La Programmation des Architectures Multi-cœurs Cécile Barbier Fatih Bellachia Alain Masserot.

Slides:



Advertisements
Présentations similaires
GEF 435 Principes des systèmes d’exploitation
Advertisements

1 HPC et Windows 2003 CCS pour les développeurs Visual Studio 2005.
Object Management Architecture (OMA)
Journées franciliennes 2006 Moussa ELKIHEL (LAAS-CNRS;UPS Toulouse )
Introduction à MPI 13 – 16 Décembre 2005 Laurence Viry.
Modèle polyédrique: fondements et application à la parallélisation de programmes réguliers Tanguy Risset DIF 2001/2002.
Traitement de flux vidéo sur GPU (Processeur graphique)
Architecture de machines Principes généraux
Projet de veille technologique
Optimisation et parallélisation de code pour processeur à instructions SIMD multimedia François Ferrand.
Franck Cappello CNRS, LRI, Université Paris-sud
Présentation du mémoire
Clients riches RIA (Rich Internet Application) / RDA
Parallel Programming in C with MPI and OpenMP
Analyse des algorithmes: une introduction. La question abord é e dans ce chapitre est la suivante: Comment choisir parmi les diff é rentes approches pour.
L'Unité centrale (CPU) Le CPU doit être rapide (mesuré en temps de CPU) UNITE DE CONTROLE Générer les signaux de control/temps Contrôler le décodage/exécution.
Lycée ELKHAWARIZMI De SAFI
Importance du réseau dans des architectures MIMD Tout échange entre les processeurs nécessite un transfert de données via le réseau.
Logique programmée & Microprocesseurs
Optimisation des performances
Présentation rapide d’
8INF856 Programmation sur architectures parallèles
INF8505: processeurs embarqués configurables Département de génie informatique et génie logiciel Langages de description architecturale.
Programmation parallèle
PARALLÉLISATION AUTOMATIQUE D’ALGORITHMES
Programmation Système et Réseau
L’Audio sur PC Comparaison Numérique vs Analogique Comparaison Audio sur PC vs Hardware dédié (DSP) Rmq: beaucoup de simulitudes avec la vidéo, mais débit.
Environnement des modèles Contraintes liées au parallélisme Utilisation de plusieurs machines Liens couplé/forcé.
PROJET CAPS Compilation, Architecture, Processeurs Superscalaires et Spécialisées.
Les cartes graphiques Introduction Histoire Aujourd’hui
PROJET CAPS Compilation, Architecture, Parallélisme et Système.
Introduction aux architectures parallèles
L’arrivée des versions parallèles des modèles de l’IPSL Adapter les codes aux architectures multiprocesseurs des futures machines afin d’améliorer les.
Création et Optimisation de Modules Audio avec les instructions SSE
1 Matthieu GUIBERT Rodolphe DELLA NEGRA 1. Introduction, Concepts de base, Boucles. TP 2. Tableaux,structures,conditions, séquences, chaînes de caractères,
Architecture matérielle et logicielle. Sommaire Un peu d’histoire : Naissance de l’informatique Organisation matérielle des ordinateurs Processeur, Mémoire,
Géographie 6H 1. Présentation du matériel à disposition.
Présentation du logiciel Adibou par Alexandra Simpson-Arial et Karen Turgeon.
Développement d’application avec base de données Semaine 3 : Modifications avec Entité Framework Automne 2015.
ASR5 Système pour architectures multicœurs CSC5001 : Systèmes Hautes Performances Architecte de Services informatiques Répartis Gaël Thomas
MSN 21 Représenter des figures planes à l’aide de croquis (triangle, carré, rectangle, cercle) Le croquis est à considérer comme support de réflexion Reconnaître.
Les outils de tests 1 1 CHAKI Abderrazak - ETIENNE Jonathan - TOUMI Nacereddine - VACHER Nicolas.
UNIX AVANCE Yves PAGNOTTE – Janvier – QUELQUES RAPPELS SUR LES SYSTEMES D’EXPLOITATION 1.
1 Les bases de données Séance 7 Les fonctions avancées : Opérateurs ensemblistes, Sous-requêtes et transactions.
C ompute U nified D evice A rchitecture Présentation d’un Template simple pour une méthode de Monte-Carlo en finance Présentation au GT GPU Laboratoire.
Optimisations Faustiennes Réalisé par : Ramzi DARMOUL Encadré par : M. Pierre JOUVELOT (CRI) M. Karim BARKATI (CRI) M. Moncef TEMANI (ISI) 20 septembre.
Projet R&D GridCL Evaluer la pertinence d’insérer des accélérateurs « many-core » au sein de nos Grilles de calcul, couplés à des technologies logicielles.
Développement d’application avec base de données Semaine 8 : WPF avec Entité Framework Automne 2015.
G. Botti Service de l ’Information Médicale Pr M. Fieschi Hôpital Timone-adultesMarseille le 13 novembre 2000 Problématique du codage Langage, communication,
1 Les logiciels en général sont classés en deux familles:  Logiciels de base  Logiciels d’applications (applications) 2.
Projet Personnel (Epreuve 6) Projet réalisé dans le cadre de mon épreuve E6 au sein de mon alternance au conseil départemental du val de marne Arnaud PICANO.
Migration Plan adressage EPLE Migration Plan d'adressage EPLE.
StratusLab is co-funded by the European Community’s Seventh Framework Programme (Capacities) Grant Agreement INFSO-RI La technologie « cloud » M.
1 Journées Scientifiques novembre 2003 MoMaS EDF Electricité de France Multi Domaines Simulation Multi Domaines Laurent Loth - Andra.
Jobs multicore dans WLCG Présentation en partie basée sur des présentations faites dans le cadre du groupe de travail multicore.
La réforme S.T.G : Quels enjeux de formation ? 18 et 19 mai Premiers retours d’Expériences A partir des journées de formation Académiques.
Chapitre IV Architecture de VonNeumann. I/ Introduction John VonNeumann est un mathématicien d’origine Hongroise qui a participé au projet Manhattan.
Novembre 2007 Colloque 2007 du GdR MoMaS 1 Développements numériques pour les milieux poreux, Intégration dans la plate-forme Alliances Ph. Montarnal CEA.
CSI 3531 Systèmes d’exploitation Nathalie Japkowicz 1.
On the analysis of CMMN expressiveness: revisiting workflow patterns Renata Carvalho Hafedh Mili.
L'objectif permettre aux utilisateurs d'acquérir ou d'actualiser des compétences directement utilisables dans leur travail. KARA CHEIKH Cite.
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
Colloque LCG France14-15 mars SURVEILLANCE ET GESTION D’INCIDENTS Cécile Barbier (LAPP)
1 Séminaire académique S-SI Conclusion 27 mai 2011.
Jean-Philippe PICARAT - Pôle TICE - Cnam Pays de la Loire Le numérique, un langage en soi.
Les systèmes automatisés Les systèmes automatisés
GPU sous LabVIEW eTIG_OOP_ Plan de la présentation 1.Frameworks OOP référencés 2.Performances d’accés 3.Performances de compilation 4.Erreurs.
Assembleur, Compilateur et Éditeur de Liens
Architecture matérielle des ordinateurs
Transcription de la présentation:

Ecole Informatique 2010 La Programmation des Architectures Multi-cœurs Cécile Barbier Fatih Bellachia Alain Masserot

Programmation Parallèle - Problématique lPourquoi paralléliser:  gagner du temps  Utiliser plusieurs processeurs pour rendre une tache plus rapide  Diminuer le temps pour exécuter un jeu de taches  Une conséquence liée a l’évolution des microprocesseurs lUn code est composé  De parties séquentielles  Et de parties susceptibles d’être parallélisées lLoi d’Amdahl:  T = Tseq + Tpar;  p: portion du code parallelisable  T = (1-p)*T + p*T  N: nombre de cœurs  T(N) = (1-p)*T + p*T/N  Accélération:1/((1-p) + p/N) 15/02/2011 Informatique - Programmation Architectures Multi cœurs 2

Programmation Parallèle - Problématique lProblématique complexe lSystème hétérogène:  Différentes types de machines  Différents types de core  Différentes gestions d’accès aux données (cache, I/O) lOptimisation des codes est compilateur dépendant 15/02/2011 Informatique - Programmation Architectures Multi cœurs 3

Programmation Parallèle – Lignes de recherche 15/02/2011 Informatique - Programmation Architectures Multi cœurs MPI, OpenCL GCD OpenMP TBB 4

Programmation Parallèle lLangages:  PGAS: Partionned Goblal Address Space  MPI: Message Passing Interface  GCD: Grand Central Dispacth (MaxOS, Linux, FreeBSD): CPU  OpenCL: Open computing language : Multiplateforme – CPU_GPU lLibrairies et compilateur:  OpenMP: Open Multi-Processing  TBB: Thread Building Block (C++)  CUDA: GPU-nvidia uniquement  HMPP: Heterogenous Multicore Parallel Programming (CAPS) : CPU_GPU 15/02/2011 Informatique - Programmation Architectures Multi cœurs Multiplateforme CPU 5

Programmation Parallèle: OpenCL framework 15/02/2011 Informatique - Programmation Architectures Multi cœurs 6 CPU_

Programmation Parallèle – Méthodologies pour CPU 15/02/2011 Informatique - Programmation Architectures Multi cœurs 7

Programmation Parallèle: GPU lAccessible uniquement via PCI-Express lLangages:  NVIDIA CUDA Février 2007  ATI Stream SKD Décembre 2007 lGPU double précision: Fin 2008 lProgrammation très liée au matériel  Thread GPU ≠ Thread CPU  exécute de même code (SPMD: Single Process, Multiple Data )  partagent les mêmes registres  s’exécute par unité de 32 hard-threads  Performance liée a la gestion de la mémoire 15/02/2011 Informatique - Programmation Architectures Multi cœurs 8

Programmation Parallèle - Méthodologies pour GPU 15/02/2011 Informatique - Programmation Architectures Multi cœurs 9

Programmation Parallèle - Conclusion lDifférentes approches de la parallelisation en fonction de l’objectif  Langage: Multiplateforme  Librairie et compilateur : CPU/GPU  Le code reste compatible mono core (OpenMP, TBB)  Possibilité de mixer les deux :MPI et OpenMP  OpenCL semble avoir une approche plus complète:  Support les cibles: DSP, GPU, … lGPU:  Plateforme très ciblée  Difficulté de mise en œuvre  Estimation gain en performance / complexité de portage du code 15/02/2011 Informatique - Programmation Architectures Multi cœurs 10

Programmation parallèle: Modele: « Shared memory multiprocessing programming » 15/02/2011 Informatique - Programmation Architectures Multi cœurs 11