La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

La Grille de Calcul du LHC

Présentations similaires


Présentation au sujet: "La Grille de Calcul du LHC"— Transcription de la présentation:

1 La Grille de Calcul du LHC
Visite des Membres du Conseil Régional d’Ile de France Frédéric Hemmer Adjoint au Chef du Département IT 24 novembre 2008 1

2 Le pari informatique du LHC
L’accélérateur sera mis en route en 2009 et fonctionnera ans Les expériences vont produire environ 15 millions de Gigaoctets de données chaque année (environ 20 millions de CD!) L’analyse des données du LHC requiert une puissance informatique équivalente à ±100’000 processeurs actuels les plus puissants Cela nécessite la coopération de plusieurs centres de calcul étant donné que le CERN ne peut fournir que ± 20% de cette capacité

3 La solution: la Grille Utiliser la Grille pour réunir les ressources informatiques des instituts en physique des particules du monde entier Le World Wide Web fournit un accès simplifié à de l’information stockée en des millions d’endroits La Grille est une infrastructure fournissant un accès simplifié à de la puissance de calcul et de stockage distribué tout autour du globe

4 Comment fonctionne la Grille?
Pour l’utilisateur final, elle donne à de nombreux centres de calcul l’apparence d’un seul système L’intergiciel, un logiciel de pointe, trouve automatiquement les données et la puissance de calcul nécessaires aux scientifiques L’intergiciel distribue la charge entre les différentes ressources. Il gère également la sécurité, la comptabilisation, la surveillance et bien plus…

5 L’ experience “ATLAS” 7000 tonnes, 150 million de capteurs
générant des données 40 millions de fois par seconde soit 1 petaoctet/s

6

7

8

9 Le projet WLHC Computing Grid (WLCG)
Plus de 140 centres de calcul 12 grands centres pour la gestion initiale: le CERN (Tiers-0) et onze Tiers-1 38 réseaux de plus petits centres (Tiers-2) ± 35 pays impliqués

10 La Hiérarchie des Services du LCG
Tier-0: l’accélérateur Acquisition de données et traitement initial Archivage à long terme Distribution des données  Centres Tier-1 Canada – Triumf (Vancouver) France – IN2P3 (Lyon) Germany – Forschunszentrum Karlsruhe Italy – CNAF (Bologna) Netherlands – NIKHEF/SARA (Amsterdam) Nordic countries – distributed Tier-1 Spain – PIC (Barcelona) Taiwan – Academia SInica (Taipei) UK – CLRC (Oxford) US – FermiLab (Illinois) – Brookhaven (NY) Tier-1: “en ligne” avec l’acquisition des données haute disponibilité Stockage de masse  Données accessibles à la grille Analyse de données intensive Support national, régional Tier-2: ~140 centres dans ~35 pays Simulation Analyse par l’utilisateur final - batch et interactif

11 Infrastructure LCG-France en 2008
Tier-2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier-3: IPHC Strasbourg Ile de France Tier-3: IPNL Nantes Tier-2: Subatech Tier-2: LAPP Clermont-Ferrand Tier-2: LPC Annecy Lyon Tier-3: LPSC Grenoble Tier-1: CC-IN2P3 AF: CC-IN2P3 Marseille Tier-3: CPPM

12

13 Frédéric Hemmer, CERN, IT Department
WLCG LCG a exécuté ~ 44 M jobs en 2007 – la charge continue d’augmenter La distribution du travail aux Tier 0/Tier 1/Tier 2 illustre réellement l’importance de la grille Les Tier 2 contribuent a ~ 50%; > 85% est en dehors du CERN Distribution des données vers Tier 1s Les objectifs des taux de transfert maximums ont été obtenus avec des charges de travail réelles pour ATLAS et CMS Frédéric Hemmer, CERN, IT Department

14 CCRC’08 et au delà

15 Modèles d’utilisation
CCRC’08 Simulations/cosmics Modèles d’utilisation Peuvent changer de manière significative (ex: entre CCRC’08 au mois de Mai et cosmics/simulations en septembre) Tier 2s livrent régulièrement ~50% du total

16 Frédéric Hemmer, CERN, IT Department
Evolution du job rate En moyenne en mai: (10.5 M) 340k jobs / jour Moyenne ATLAS >200k jobs/jour Moyenne CMS > 100k jobs/jour avec des pointes à 200k C’est le niveau requis pour 2008/9 La charge continue d’augmenter, maintenant à ~ 230k jobs/jour, et va probablement atteindre ~100 M jobs en 2008 Frédéric Hemmer, CERN, IT Department

17 Evolution du taux de tâches (job rate)
En moyenne, en septembre: 435 tâches/ jour Moyenne ATLAS >200k tâches/jour Moyenne CMS > 100k tâches/jour avec des pointes à 200k La charge continue d’augmenter, maintenant à ~ 230k jobs/jour, et va probablement atteindre ~100 M jobs en 2008 Frédéric Hemmer, CERN, IT Department

18 CERN et Tier-1s Janvier-Septembre 2008

19 CERN et Tier-1s Janvier-Septembre 2008

20 Fiabilité des Tier 0/Tier 1
Sep 07 Oct 07 Nov 07 Dec 07 Jan 08 Feb 08 All 89% 86% 92% 87% 84% 8 best 93% 95% 96% Above target (+>90% target) 9 11 10

21 Fiabilité des Tier 2 Fiabilité publiée régulièrement depuis octobre
En février, 47 sites ont eu une fiabilité > 90% Overall Top 50% Top 20% Sites 76% 95% 99% 89100 Les sites Tier 2 fournissant un rapport: Parmi les sites Tier 2, sans rapport, 12 sont dans le top 20 du CPU fourni Sites Top 50% Top 20% Sites>90% %CPU 72% 40% 70% Jan 08

22 Fiabilités Amélioration pendant CCRC et l’évolution encourageante/prometteuse Les tests ne donnent pas une réelle image/représentation – ex: issues spécifiques – expériences cachées, “OU” service instances trop sommaires a) publication constante des tests VO-specific; b) réétudier l’algorithm associant les services instances(for combining service instances)

23 Tier 2 Fiabilités Aimeraient fixer l’objectif à 95%
Grande amélioration Moyenne par Federation devrait (bientôt) se compter en #CPU Aimeraient fixer l’objectif à 95% Devrait être réalisable Pourcentage enregistré lors d’une interruption (disponibilité<< fiabilité) Federations qui ne transmettent aucun rapport/aucune donnée

24 Amélioration de la disponibilité des sites CMS en mai 2008

25 Impact de la Grille de Calcul du LHC en Europe
Le projet LCG a donné un coup d’accélérateur au projet européen d’une Grille scientifique multi-usage EGEE (Enabling Grids for E-sciencE) EGEE est maintenant un projet global et la plus grande Grille au monde Cofinancé par la Commission européenne (coût: ±130 M€ sur 4 ans, financé par l’UE à hauteur de 70M€) EGEE est déjà utile à plus de 20 applications dont… Bio-informatique Education, Formation Imagerie Médicale

26 Le projet EGEE EGEE Objectifs
Démarré en avril 2004, maintenant dans sa 3ème phase ( ) avec plus de 240 institutions dans 45 pays Objectifs Etablir une grille productive pour l’e-Science à très grande échelle Attirer de nouvelles ressources et des utilisateurs issus de l’industrie et de la science Maintenir et améliorer “gLite”, la couche intergicielle pour la Grille Partenaires EGEE-III en France: BT Infrastructures Critiques, CEA, CNRS, CGG Services, CRSA Frédéric Hemmer, CERN, IT Department 26

27 Applications sur EGEE Plus de 25 applications dans un nombre croissant de domaines Astrophysique Chimie par modélisation numérique Sciences de la Terre Simulation financière Fusion Géophysique Physique des Haute Energies Sciences de la Vie Multimédia Sciences de la matière ….. Rapport disponible sur :

28 Exemple: la grippe aviaire
EGEE a été utilisé pour analyser 300’000 médicaments potentiels contre le H5N1, le virus de la grippe aviaire. 2000 ordinateurs dans 60 centres de calcul en Europe, en Russie, en Asie et au Moyen-Orient ont tourné pendant 4 semaines en avril: l’équivalent de 100 années sur un seul ordinateur! Les médicaments les plus prometteurs ont été identifiés et classés. Neuraminidase, one of the two major surface proteins of influenza viruses, facilitating the release of virions from infected cells. Image Courtesy Ying-Ta Wu, AcademiaSinica.

29 Exemple: analyse du sous-sol
Première application industrielle fonctionnant sur EGEE Développée par la Compagnie Générale de Géophysique (CGG) en France, qui effectue des simulations géophysiques pour le pétrole, le gaz, les mines etc... EGEE a aidé la CGG à mettre en réseau ses ressources informatiques à travers le monde.

30 Pérennité Nécessité de préparer une Grille permanente
Garantir un haut niveau de service à tous les utilisateurs Ne plus dépendre des financements de projet à court terme Gérer l’infrastructure en collaboration avec les projets nationaux (National Grid Initiatives - NGI) European Grid Initiative (EGI)

31 Pour plus d’informations sur la Grille: Merci pour votre attention!
Merci pour votre attention! 31


Télécharger ppt "La Grille de Calcul du LHC"

Présentations similaires


Annonces Google