Enjeux, succès et défis des grilles en physique des hautes énergies Faïrouz Malek, CNRS Paris le 3 Décembre 2007
Faïrouz Malek/CNRS 2 Chambres à muons Calorimètre Trajectographe TeVatron/Fermilab Collisions pp à √s=1.96 TeV Luminosité : cm -2.s -1 LHC/CERN Collisions pp à √s=14 TeV Luminosité : cm -2.s -1 - La physique des hautes énergies exemple de machines, de détecteurs
Faïrouz Malek/CNRS 3 le LHC: 4 expériences prêtes … Premier faisceau automne 2008
Faïrouz Malek/CNRS 4 Wτμe Z ντντντντ νμνμνμνμ νeνeνeνe bsd γ quarks leptons 1 ère 2 ème 3 ème génération bosons de jaugestcu H Higgs g Ce qu’on recherche ou du moins ce que nous promet le Modèle Standard ← Simulation CMS
Faïrouz Malek/CNRS 5 Supersymétrie: Un monde nouveau où tout Boson (photon) ou Fermion (e - ) a un Super Partenaire Dimensions supplémentaires (spatiales) où seules certaines particules se propagent -> gravitons, bosons nouveaux… Vers les théories des cordes … qui traitent la gravitation de manière quantique. Elle ne sont valables que si l'espace-temps a au moins 10 dimensions. Fort heureusement …. Il y a quelques défauts au Modèle Standard qui laissent supposer que …. Calabi-Yau
Faïrouz Malek/CNRS 6 Visualisation d’un événement (top) VRAI de D0/Fermilab
Faïrouz Malek/CNRS 7 Que se passe-t-il lors des collisions au LHC ?
Faïrouz Malek/CNRS 8 Au CERN: Acquisition, Une première Reconstruction, Le Stockage La Distribution
Faïrouz Malek/CNRS 9 Le calcul au LHC: Un défi ? Signal/Bruit Volume de données –Taux élevé * grand nbre de canaux * 4 expériences 15 PetaBytes de données nouvelles par an Puissance de calcul (100 MSI2k) –Complexité de l’évenement * Nb. événements * milliers d’utilisateurs 50 k fastest CPUs (d’aujourd’hui)
Faïrouz Malek/CNRS 10 Jürgen Knobloch/CERN Slide 10 Historique du Calcul pour le LHC LHC approuvé ATLAS & CMS approuvés ALICE approuvé LHCb approuvé “Hoffmann” Review 7x10 7 MIPS 1,900 TB disk Estimations ATLAS (ou CMS) 1 ère année à la luminosité nominale ATLAS&CMS CTP 10 7 MIPS 100 TB disk LHC start Computing TDRs 55x10 7 MIPS 70,000 TB disk (140 MSi2K)
Faïrouz Malek/CNRS 11 Evolution des capacités calcul au CERN SC (0.6GeV) PS (28GeV) ISR (300GeV) SPS (400GeV) ppbar (540GeV) LEP (100GeV) LEP II (200GeV) LHC (14 TeV) Coût 2007 Inclus coût infrastructure (centre calcul, puissance elec., refroidissement,..) et cartouches magnétiques pour stockage Stockage & disk demandés > 10 fois les possibilités du CERN
Faïrouz Malek/CNRS 12 Jürgen Knobloch/CERN Slide 12 Demandes en CPU & Disk Plan prévisionnel en 2006 CPUDisk CERN: ~ 10%
Faïrouz Malek/CNRS 13 Vers le Grid pour le LHC Un chemin de non retour Data Challenges First physics Cosmics GRID 3 EGEE 1 LCG 1 Service Challenges EU DataGrid GriPhyN, iVDGL, PPDG EGEE 2 OSG LCG 2 EGEE WLCG
Faïrouz Malek/CNRS 14 Le modèle par étages Tier
Faïrouz Malek/CNRS 15 La collaboration WLCG La Collaboration –4 expériences LHC –Environ 250 centres de calcul –12 très grands centres “nerveux” (Tier0, Tier1) –38 fédérations de plus petits centres dits “Tier2” –Plus de 40 pays –3 Grilles: EGEE, OSG, Nordugrid Protocole d’Accord (Memorandum of Understanding) –Signé en October 2005 Ressources –Plan prévisionnel sur 5 ans
Faïrouz Malek/CNRS 16 Les centres tout autour de la terre forment un Supercalculateur Virtuel Les projets EGEE et OSG sont la base même du Worldwide LHC Computing Grid Project WLCG L’Inter-opérabilité des grilles fonctionne !!!
Faïrouz Malek/CNRS 17 Et le réseau? LHCOPN indispensable Tout Tier2 doit pouvoir se connecter à tout Tier1 Les Tier2 et Tier1 sont interconnectés par les réseaux de recherche nationaux
Faïrouz Malek/CNRS 18 Transferts de données en dehors du Tier0
Faïrouz Malek/CNRS 19 Production sur la grille sur une année par discipline scientifique HEP 40 millions de tâches ~ 150 millions de CPU
Faïrouz Malek/CNRS 20 Production sur la grille sur une année dans la physique des Hautes Energies Babar D0 ILC, …
Faïrouz Malek/CNRS 21 L’augmentation des ressources nécessaires pour le démarrage Jul Sep Apr X Sep Jul Apr Sep Jul Apr X 2.9 X Sep Jul Apr Sep Jul Apr X 3.7 X target usage usage pledge installed
Tier-1 Centers: TRIUMF (Canada); GridKA(Germany); IN2P3 (France); CNAF (Italy); SARA/NIKHEF (NL); Nordic Data Grid Facility (NDGF); ASCC (Taipei); RAL (UK); BNL (US); FNAL (US); PIC (Spain) La grille est une réalité opérationnelle pour le LHC Elle est Fonctionnelle Indispensable Fiable Stable La Mise à l’échelle est un succès
Faïrouz Malek/CNRS 24 Tier-2: LPC AF: CC-IN2P3 Tier-2: LAPP Tier-3: IPHC Lyon Clermont-Ferrand Ile de France Marseille Nantes Strasbourg Annecy Tier-3: IPNL Tier-3: CPPM Tier-2: Subatech Tier-2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier-2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier-1: CC-IN2P3 Grenoble Tier-3: LPSC Sites LCG-France en 2007
Faïrouz Malek/CNRS 25 Contribution LHC (EGEE accounting) Normalised CPU time to a reference value to 1 kSI2000 Source: La France est dans le Top 2
Faïrouz Malek/CNRS 26 LPC LAL Tokyo BEIJING TOKYO SACLAY LPHNE LAPP July 2006 May 2007 CPPM Un des objectifs réalisé avec succès en 2006 et en 2007 par la France pour l’ exercice de transfert des données de l’expérience ATLAS du Tier1-FR vers les Tier2 et Tier3 de France et d’Asie
Faïrouz Malek/CNRS 27 Production CMS 2 ème semestre 2007 CC-IN2P3 FNAL PIC ~675 M événements La France est dans le Top 3
Faïrouz Malek/CNRS 28 Conclusions Bravo au CNRS d'en jeter les bases via l'institut des grilles Le LHC va durer une quinzaine d'années au moins : on a donc besoin d'une grille pérenne Aussi incroyable que ça ait pu paraitre encore il y a quelques années, la grille va donc permettre la pleine exploitation des fantastiques découvertes que va nous apporter le LHC