1 HPC et Windows 2003 CCS pour les développeurs Visual Studio 2005
Comment développer des applications parallèles
OpenMP Fonctionne en mode mémoire partagée et seulement sur une machine physique. Assez simple à utiliser (plus difficile à déboguer ;-) il suffit didentifier et de marquer une boucle avec un pragma Message Passing Interface (MPI) Fonctionne en mémoire partagée (sur une machine) et en cluster (multiple machine) Ample MPI API Contrôle fin des messages entre plusieurs processus (EXE) Collecte et réduction des données en un seul appel Plus difficile à utiliser que OpenMP, mais beaucoup plus simple que dattaquer directement les APIs sockets.
Les systèmes de départ HPC nétaient pas portables (Intels NX, IBMs EUI, etc) Le Forum MPI à vue le jour en 1992 avec une large participation de : vendeurs: IBM, Intel, TMC, SGI, Convex, Meiko Fournisseurs de librairies portables: PVM, p4 utilisateurs: application scientifiques et fournisseurs de librairies MPI est une spécification standard avec de nombreuses implémentations. MPICH et MPICH2 sont des implémentations dArgonne MS MPI est basée sur ( et compatible avec ) MPICH2 Dautres implémentations : LAM-MPI, OpenMPI, MPI-Pro, WMPI Pourquoi le team MS HPC a choisi MPI? Car MPI est de-facto le standard pour la programmation parallèle sur différent nœuds. Les API MPI sont divisée en 3 parties Intégralité des fonctionnalités +160 fonctions. Sécurité des processus et communication. Un exécutable sur la ligne de commande (mpiexec.exe) pour démarrer des Jobs.
Avons-nous forcement besoin de ces deux APIs pour développer une application HPC ? Quels langages sont supportés ? Puis-je développer une application HPC avec le Framework.NET ?
Environnement dun développeur Head Node Compute Node PC du développeur Remote Debug SDK Remote Debug
Microsoft HPC web site Argonne National Labs MPI website Tutorial from Lawrence Livermoore National Lab Microsoft HPC newsgroup microsoft.public.windows.hpc Microsoft HPC community portal
© 2007 Microsoft France Votre potentiel, notre passion TM