La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Initiation aux technologies de linformation Frédéric Gava (MCF) LACL, bâtiment P2 du CMC, bureau 221 Université de Paris XII Val-de-Marne.

Présentations similaires


Présentation au sujet: "Initiation aux technologies de linformation Frédéric Gava (MCF) LACL, bâtiment P2 du CMC, bureau 221 Université de Paris XII Val-de-Marne."— Transcription de la présentation:

1 Initiation aux technologies de linformation Frédéric Gava (MCF) LACL, bâtiment P2 du CMC, bureau 221 Université de Paris XII Val-de-Marne 61 avenue du Général de Gaulle Créteil cedex

2 Architecture parallèle et futur de linformatique

3 Architecture parallèles

4 4/0 Premières machines 1976 : Cray I: refroidi au « gaz liquide » 1981 : Cyber 205, 50 Mflops 1986 : Cray X-MP (713 MFlops) 1991 : Cray Y-MP (16 GFlops) : Grappes de PC Super-ordinateurs parallèles et vectoriels Calcul globalisé ou grilles de calcul géographiquement distribuées

5 5/0 Exemple grappe de PCs

6 6/0 Une grappe de lINRIA

7 7/0 Super-ordinateurs Le earth-simulator au Japon, environ 5000 processeurs…Le Tera-10 du CEA (France) est classé par mis les 5 plus puissantes machines…

8 8/0 Le parallélisme ? On distribue les données sur p=4, 32, 5000 ordinateurs : Chacun calcule sur sa part des données On séchange les résultats On recommence si nécessaire On espère que le calcul soit complété p fois plus vite : Mais: léchange des données prend du temps … temps relatif inchangé depuis plus de 20 ans Échange 20, 100, 1000 x plus lent quun calcul … sil ny a pas de bouchon !

9 9/0 Paralléliser cest distribuer Données D on né es

10 10/0 Paralléliser cest accélérer CALCULCALCUL CACA LCLC ULUL

11 11/0 Mais aussi communiquer et synchroniser

12 12/0 Comment mesurer ? L Cela limite les performances… Calcul Données G Synchronisation (latence) Temps de communication PECA

13 13/0 Vitesse de calcul Kilo Mega Giga Tera Loi de Moore : lefficacité des processeurs double tout les 18 mois (normalement vrai jusquen 2017 mais après ?)

14 14/0 Vitesse des communications Nb Processeurs Mflops/s 1/L M/s 1/g Mmots/s t3e-256(2)20001,1260 t3e-256(4)40000,9382 t3e-256(8)70000,6327 t3e-256(16)150000,4253 t3e-256(24)22000,47222 t3e-256(32)280000,41177 CRAY T3E, haut de gamme circa 2002 Même la fibre optique ny peut rien car la vitesse de la lumière est finie et donc communiquer coûte cher… PECA

15 15/0 Le problème de lefficacité Le but faire le total (addition) dun ensemble de nombre donnée ; le nombre dentiers à additionner sera toujours le même On va répartir ces nombres suivant deux nombres de processeurs (humains), 5 et 10 Pour cette expérience, je vais demander 10 volontaires Chacun des volontaires fait la somme des entiers qui lui sont alloués Dès que le volontaire a terminé, il se met près de moi Puis les volontaires se réunissent pour faire la somme total On analysera ensuite lefficacité globale des volontaires

16 16/0 Exemple Volontaire : 1 23 Total : =29

17 17/0 Total avec 5 processeurs Volontaire :

18 18/0 Total avec 10 processeurs Volontaire :

19 19/0 Moralité Les communications coûtent cher La synchronisation aussi Ce nest pas parce que lon a plus de processeur que le calcul sera plus rapide : on parle defficacité de lalgorithme parallèle En gros : plus on a de processeurs plus il faut de gros problèmes sinon on fait perdre du temps au processeurs (par rapport à une machine parallèle avec moins de processeurs)

20 20/0 Différentes architectures (1) On peut classer les machines parallèles suivant leur efficacité, leur nombre de processeurs, le types des processeurs/réseaux/mémoires etc. On peut néanmoins et grossièrement classer les machines parallèles suivant 2 catégories : Les machines à mémoire partagées Les machines à mémoire distribuées Le modèle client/serveur

21 21/0 Mémoires partagées Processeur Mémoire Bus Processeur Bus Les processeurs « multi-core » comme les « dual-core » : les processeurs accède directement à la mémoire vive ; très efficace mais encore coûteux et limité en nombre de processeurs (16 maxi dans le commerce) Processeur Mémoire Bus Réseau Processeur Ici, cest lapanage des grosses, commerciales et coûteuse (100k à 1M euros) machines massivement parallèles comme les Cray T3E, SGI Origin 2000, IBM SP avec 64, 128, 256 processeurs. Mais très efficaces. Les processeurs accèdent tous à une mémoire vive via un réseau => communications aussi efficaces que lecture mémoire PEC A

22 22/0 Mémoires distribués Processeur Mémoire Réseau Processeur Mémoire Processeur Mémoire Les processeurs communiquent via le réseaux ; cest le domaine des grappes de machines. Possibilité de machines peu cher avec un TRES grand nombre de processeurs mais néanmoins, encore aujourdhui, des communications plus lentes que précédemment. Possibilité de construire pour pas cher sa propre machine parallèle… Machine esclave Réseaux Machine esclave Machine maître Une machine maître (serveur) distribue les données et les calculs aux esclaves (client) et le maîtres récolte les résultats. Ce modèle de machine parallèles a été utilisé par exemple pour le Généthon, etc. en utilisant les temps de calculs non-utilisé par les particuliers. On a donc une très grande capacité de calcul mais avec les problèmes suivant : il faut que le problème soit trivialement décomposable, il faut vérifier les données calculés pour éviter les pirates (on fait de la redondance de calcul puis on prend le résultat le plus rendu), communications parfois très coûteuses. PECA

23 23/0 Différentes architectures (2) Single Instruction Multiple Instructions Single DataSISDMISD Multiple DataSIMDMIMD Machine Séquentielle On peut aussi classer les machines parallèles suivant les programmes parallèles qui y sont utilisés Pour cela, on classe suivants les instructions et les données Grappe de machines

24 24/0 SIMD Chaque instruction du processeur manipule parallèlement (dans les circuits imprimés) plusieurs données : on a donc plusieurs calculs à la fois pour chaque instruction On trouve ce type dinstructions dans les accélérateurs graphiques (du processeur ou de la carte graphique) : on souhaite manipuler plusieurs pixels/polygones à la fois les processeurs avec co-processeurs arithmétiques : on souhaite calculer plusieurs additions à la fois pour accélérer les gros calculs numériques etc. PECA

25 25/0 MISD Plusieurs instructions manipulent parallèlement une seule et unique donnée !? En fait possible avec des programmes dis en « pipe-line » : des données circulent sur un circuits de processeurs (ou de processus, cest à dire avec plusieurs processus sur un même processeur) et chaque processus ne fait quune seule et unique opération Exemple : Processus 1 calcul +1 Processus 2 calcul *2 Processus 3 calcul +3 ? 1, 5, 6 10, 23 Flux de données Données initialesDonnées finales PECA

26 Futurs de linformatique (qui vivra verra…)

27 27/0 Les grilles de calcul Un « graal » (super)-ordinateur distribuées géographiquement Du calcul à la demande, comme de lélectricité Nombreux projets et réalisations : GRID5000 Grille du CERN Globus etc.

28 28/0 Taxonomie Une machine parallèle=plusieurs processeurs Meta-computing = plusieurs machines parallèles Calcul pair-à-pair = chaque machines est relié à une ou plusieurs autres machines (échanges de fichiers) Modèle Clients-Serveurs = des serveurs répartissent les calculs à des clients ; ceux-ci se connectent, calculent, redonnent le résultats aux serveurs etc. Global-computing = toutes les machines du mondes vue comme une seule ENORME machine (le « graal ») Mobile-computing = un utilisateur veut lancer une application ; un agent informatique se « balade » sur le net pour trouver une machine suffisamment puissante pour exécuter cette application ; puis revient sur la machine de lutilisateur pour lui fournir le résultat etc.

29 29/0 Les problèmes Sécurité : applications détruisant les fichiers etc. autorisation sur quelles machines ? sûreté dexécution : une application plantant la/les machine(s) pour gêner les autres applications etc. Performance : prédiction des communications… répartition des ressources physiques une petite application (calculette) a telle besoin dautant de ressource ? sécurité : une application faisant des millions de calculs inutile pour gêner les autres etc. Portabilité : grande hétérogénéité des machines Tolérance aux « pannes » : comment faire quand une machine se déconnecte (panne de courtant etc.) ? La recherche en informatique y travaille (voir site LACL par ex.)

30 30/0 Applications (1) Dynamique moléculaire : on simule une nanoseconde sur atomes

31 31/0 Applications (2) Traitement dimage, et reconnaissance de formes 3D : Reconnaître un visage Comparer deux voix Comparer une image avec la carte Michelin, compléter limage SPOT par temps couvert etc.

32 32/0 Applications (3) Simulation aérodynamique et météo

33 33/0 Applications (4) Réalité virtuelle et murs dimages : simulation interactive en ingénierie Urbanisme virtuelle Simulation de crues de fleuves jeux vidéo etc.

34 34/0 Applications (5) Analyse de la structure du web : Qui parle de qui sur les pages perso ? Que peut-on savoir sur mon entreprise via le web et par regroupement dinformation ? Quelles sont les réseaux pirates ? Sécurité informatique : ce protocole de commerce est-il vraiment sûr ? Quel effet aurait une panne sur des informations critiques ? Le protocole de vote électronique est-il fiable ? Un pirate peut-il tous casser dans le réseau de mon entreprise ? Et tellement dautres choses… Intelligence artificiel (interaction homme-machine comme un e-vendeur ou apprentissage automatique pour la recherche de pétrole daprès des relevés topographiques et géologiques) Calcul formelle, démonstration automatiques, assistant de preuves (les sujets de Bac S peuvent être entièrement résolue par des machines) etc.


Télécharger ppt "Initiation aux technologies de linformation Frédéric Gava (MCF) LACL, bâtiment P2 du CMC, bureau 221 Université de Paris XII Val-de-Marne."

Présentations similaires


Annonces Google