La Grille de Calcul du LHC Visite de Marie-Françoise Lefèvre Frédéric Hemmer Adjoint au Chef du Département IT 16 juillet 2008 1
Le pari informatique du LHC L’accélérateur sera terminé en 2008 et fonctionnera 10-15 ans Les expériences vont produire environ 15 millions de Gigaoctets de données chaque année (environ 20 millions de CD!) L’analyse des données du LHC requiert une puissance informatique équivalente à ±100’000 processeurs actuels les plus puissants Cela nécessite la coopération de plusieurs centres de calcul étant donné que le CERN ne peut fournir que ± 20% de cette capacité
La solution: la Grille Utiliser la Grille pour réunir les ressources informatiques des instituts en physique des particules du monde entier Le World Wide Web fournit un accès simplifié à de l’information stockée en des millions d’endroits La Grille est une infrastructure fournissant un accès simplifié à de la puissance de calcul et de stockage distribué tout autour du globe
Comment fonctionne la Grille? Pour l’utilisateur final, elle donne à de nombreux centres de calcul l’apparence d’un seul système L’intergiciel, un logiciel de pointe, trouve automatiquement les données et la puissance de calcul nécessaires aux scientifiques L’intergiciel distribue la charge entre les différentes ressources. Il gère également la sécurité, la comptabilisation, la surveillance et bien plus…
L’ experience “ATLAS” 7000 tonnes, 150 million de capteurs générant des données 40 millions de fois par seconde soit 1 petaoctet/s
Acceleration et collisions de proton Les protons sont accélérés par plusieurs machines pour atteindre leur énergie (7+7 TeV) Les collisions “frontales” se produisent au centre des détecteurs, qui enregistrent les nouvelles particules créées. Ces collisions se produisent 40 million de fois par seconde, jour et nuit, pendant environ 100 jours sur Nous produisons, stockons et traitons 15 PB/an.
CERN – March 2007
Le projet LHC Computing Grid (LCG) Plus de 140 centres de calcul 12 grands centres pour la gestion initiale: le CERN (Tiers-0) et onze Tiers-1 38 réseaux de plus petits centres (Tiers-2) ± 35 pays impliqués
Le nouveau “backbone” réseau européen Un groupe de travail LCG entre les Tiers-1 et les organisations régionales/ nationales de réseaux pour la recherche Le réseau GÉANT 2 pour la recherche Forte interaction entres les grands centres LHC européens Le point de présence suisse est au CERN Frédéric Hemmer, CERN, IT Department
La Hiérarchie des Services du LCG Tier-0: l’accélérateur Acquisition de données et traitement initial Archivage à long terme Distribution des données Centres Tier-1 Canada – Triumf (Vancouver) France – IN2P3 (Lyon) Germany – Forschunszentrum Karlsruhe Italy – CNAF (Bologna) Netherlands – NIKHEF/SARA (Amsterdam) Nordic countries – distributed Tier-1 Spain – PIC (Barcelona) Taiwan – Academia SInica (Taipei) UK – CLRC (Oxford) US – FermiLab (Illinois) – Brookhaven (NY) Tier-1: “en ligne” avec l’acquisition des données haute disponibilité Stockage de masse Données accessibles à la grille Analyse de données intensive Support national, régional Tier-2: ~140 centres dans ~35 pays Simulation Analyse par l’utilisateur final - batch et interactif
Frédéric Hemmer, CERN, IT Department Activité Grille WLCG LCG a exécuté ~ 44 M jobs en 2007 – la charge continue d’augmenter Moyenne en Mai total: (10.5 M) 340k jobs / jour Moyenne ATLAS >200k jobs/jour Moyenne CMS > 100k jobs/ jour avec des pointes à 200k C’est le niveau requis pour 2008/2009 Distribution des données vers Tier 1s: Toutes les expériences on dépassé les taux de transfert requis, durant de longues périodes et simultanément 1.3 GB/s requis Bien plus de 2 GB/s est faisable Frédéric Hemmer, CERN, IT Department
Fiabilité des sites CERN + Tier-1 Reliability Moyenne générale: 75-80% Meilleurs 50% sites : 95% Meilleurs 20% sites : 98% > 70% ressources sont à des sites fiabilité > 90% Fiabilité T1 au dessus de ce qui est requis (93%) en mai 2008
Impact de la Grille de Calcul du LHC en Europe Le projet LCG a donné un coup d’accélérateur au projet européen d’une Grille scientifique multi-usage EGEE (Enabling Grids for E-sciencE) EGEE est maintenant un projet global et la plus grande Grille au monde Cofinancé par la Commission européenne (coût: ±130 M€ sur 4 ans, financé par l’UE à hauteur de 70M€) EGEE est déjà utile à plus de 20 applications dont… Bio-informatique Education, Formation Imagerie Médicale
Le projet EGEE EGEE Objectifs Démarré en avril 2004, maintenant dans sa 3ème phase (2008-2010) avec plus de 240 institutions dans 45 pays Objectifs Etablir une grille productive pour l’e-Science à très grande échelle Attirer de nouvelles ressources et des utilisateurs issus de l’industrie et de la science Maintenir et améliorer “gLite”, la couche intergicielle pour la Grille Frédéric Hemmer, CERN, IT Department 19
Applications utilisant EGEE Plus de 25 applications dans un nombre croissant de domaines Astrophysique Chimie par modélisation numérique Sciences de la Terre Simulation financière Fusion Géophysique Physique des Haute Energies Sciences de la Vie Multimédia Sciences de la matière ….. Rapport disponible sur : https://edms.cern.ch/document/722132
Charges en croissance Au total 188000 jobs/jour 33700 CPU-mois Excluant HEP, OPS 17000 jobs/jour 5700 CPU-mois Un facteur 4-5 est encore attendu pour les expériences LHC The LHC Computing Grid, July 2008 21 21
Example: EGEE Attacks Avian Flu EGEE a été utilisé pour analyser 300’000 médicaments potentiels contre le H5N1, le virus de la grippe aviaire. 2000 ordinateurs dans 60 centres de calcul en Europe, en Russie, en Asie et au Moyen-Orient ont tourné pendant 4 semaines en avril: l’équivalent de 100 années sur un seul ordinateur! BioSolveIt a donne 6000 licences FlexX. Résultats Grippe aviaire: 20% des composants meilleurs que le Tamiflu Malaria: 6/30 composants similaires or meilleurs que PepstatinA Des test sont en cours avec des composants provenus de calculs ulterieurs. Neuraminidase, one of the two major surface proteins of influenza viruses, facilitating the release of virions from infected cells. Image Courtesy Ying-Ta Wu, AcademiaSinica. The LHC Computing Grid, July 2008 22 22
Example: Geocluster industrial application Première application industrielle (GeoCluster) fonctionnant sur EGEE Développée par la Compagnie Générale de Géophysique (CGG-Veritas) en France, qui effectue des simulations géophysiques pour le pétrole, le gaz, les mines etc... EGEE a aidé la CGG à mettre en réseau ses ressources informatiques à travers le monde. The LHC Computing Grid, July 2008 23
Pérennité Nécessité de préparer une Grille permanente Garantir un haut niveau de service à tous les utilisateurs Ne plus dépendre des financements de projet à court terme Gérer l’infrastructure en collaboration avec les projets nationaux (National Grid Initiatives - NGI) European Grid Initiative (EGI) On ne peut se permettre d’avoir d’interruption du support de la grille de production. Spanish e-Science Network, Universitat Politècnica de València IFCA - Instituto de Fisica de Cantabria , CSIC The LHC Computing Grid, July 2008 24
Pour plus d’informations sur la Grille: Merci pour votre attention! www.gridcafe.org www.cern.ch/lcg www.eu-egee.org Merci pour votre attention! 25