1 Le calcul et linformatique à lIN2P3 et au DAPNIA Prospectives, La colle sur Loup 2004 Contributions:B. Boutherin (sécurité), J. Delabrouille (Astro-particules),

Slides:



Advertisements
Présentations similaires
Avec le soutien de l’Union Européenne (FEDER)
Advertisements

Global Total Microcode Support (TMS ou GTMS) Microcode Management proactif pour System i, System p, System x et SAN.
CGP2P, école des mines Sous-projet V La participation du LAL au projet CGP2P DataGRID CGP2P.
Le contrat « enfance et jeunesse »
Séminaire sur les Politiques pharmaceutiques à lattention des Experts francophones, Genève, juin 2011 | Séminaire sur les Politiques pharmaceutiques.
Certificat Informatique et Internet (C2i®) niveau 1
Wikipédia : outil délaboration/gestion des connaissances Image : SourceSource Rémi Bachelet Ce cours est, avec son accord, largement issu du dossier de.
LES MÉTIERS DE L’INFORMATIQUE
Avec le soutien de lUnion Européenne (FEDER) Programme Régional dActions Innovatrices– Colloque Biopuces et écologie microbienne – octobre 2006 Avec.
1 Réseau des électroniciens de Midi-Pyrénées Historique – Objectifs BudgetActions Actions depuis le 8 novembre 2005 BilanPerspectives Réunion des réseaux.
LE CONTRAT CADRE DE SERVICE
Introduction 2002: document prospective des théoriciens des particules : évolution démographique alarmante Mise à jour, approfondissement de la réflexion,
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
1 R é seau de Vigilance et de Prévention des Pathologies Professionnelles RNV3P dans un Service de Sant é au Travail (SST) de 2004 à 2007 R é seau de Vigilance.
Grille Régionale Rhône-Alpes Institut des Grilles du CNRS Yonny CARDENAS CC-IN2P3 Réunion du groupe de travail grilles Projet CIRA Grenoble, le 2 Juin.
Conclusions du groupe de travail “Origine de la masse et physique au
Le centre de calcul de l'IN2P3 : une architecture pour le calcul intensif et le stockage de masse Pascal Calvat.
Prénom Nom Fonction Titre
Arnaud Marsollier Responsable de la communication arnaud
Évolution des effectifs
Stage de formation des enseignants
La Grille de Calcul du LHC
Projet région Thématique prioritaire n°10 Calculs Scientifiques Logiciels Rhône-Alpes : Grille pour le Traitement dInformations Médicales (RAGTIME ?)
Journées de prospectives DSM/DAPNIA – IN2P3 La Colle sur Loup – 11 au 15 Octobre 2004 DAPNIA CEA - Direction des Sciences de la Matière La Valorisation.
JOURNEE DES MECANICIENS 15 novembre 2004 Marcel Lieuvin.
Planification budgétaire Tier-2s Tier-3s Fairouz Malek, Fabio Hernandez, Frédérique Chollet Comité de direction 7 juillet 2008.
France Grilles: plan stratégique version du 15 Novembre 2012.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Le monitoring réseau dans EGEE Guillaume.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Réseaux LCG France Réunion LCG France 18 Mai 2009.
Thème 4 -> 3. Sciences et Technologie CERN - Conseil Européen pour la Recherche Nucléaire.
Services de production grille en France Gilles Mathieu IN2P3-CC France Grilles Frédérique Chollet IN2P3-LAPP LCG France Rencontres France Grilles et LCG-France,
Centre de Calcul de l'IN2P3 - Lyon Toulouse - Lyon, 21 décembre 2004 Les projets de grille au Centre de Calcul de l’IN2P3.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
Infrastructure haute disponibilité pour services informatiques JI2014
Rôle de la commission informatique Faire un bilan de l’informatique Evaluer les besoins des utilisateurs Proposer ou valider des évolutions Canal de communication.
L’environnement Labo : nom du labo (PP, PN, Astro éventuellement dans l’ordre d’importance) Effectif du labo : xxx personnes Nombre d’IT : xxx dont au.
Le noeud de grille Tier 3 LAPP.
Le service visio/webcast du CC IN2P3. De quoi parle-t’on? Deux activités étroitement liées: Le pont de visio-conférence Le webcast Deux activités étroitement.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
L’environnement Labo : Laboratoire de Physique des Particules d’Annecy-le vieux: LAPP (PP, Astro) Effectif du labo : 144 personnes Nombre d’IT : 76 dont.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
JI 2008 – B. Boutherin JI 2008 session de clôture Des JI 2008 je ramènerai…
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
Mercredi 1er juin 2016 La biologie au centre de calcul Pascal Calvat Centre de calcul.
Bilan 2012, perspectives 2013 Conseil de Groupement – 21/2/2013 V. Breton La grandeur des actions humaines se mesure à l’inspiration qui les fait naître.
Service Informatique Bernard Boutherin Tourniquet Section novembre 2014 Bilan Informatique Tourniquet Section 01 du LPSC, Nov 2014,
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
Réunion EGEE France 11/6/2004Page 1Rolf Rumler Structure de l’exploitation d’EGEE.
Grid au LAL Michel Jouvin LAL / IN2P3
Mercredi 7 novembre 2007 Dominique Boutigny Activités et Évolution du CC-IN2P3 Réunion des Expériences 2007.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
6-7 Octobre 2008J-P MEYER1 Conclusions du groupe de travail thématique 7 Physique subatomique: - physique des particules, - physique nucléaire, - astroparticules.
Conseil de Coordination du Réseau des Informaticiens (CCRI) A la demande du nouveau chargé de mission informatique, une réunion a eu lieu le 30 Janvier.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
1 Le calcul LHC et son informatique à l’IN2P3 et au DAPNIA LCG-France Fairouz Malek.
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
Présentation au conseil scientifique. Une e-infrastructure dédiée au traitement des données Infrastructure distribuée, par les utilisateurs, pour les.
1LuminyGrid – 27 Avril 2010 LuminyGrid Grille de calcul scientifique pluridisciplinaire à vocation régionale  Projet initié en 2009 s’appuyant sur les.
Ghita Rahal Lyon, 17 Avril 2008 Outils d’information et de suivi pour l’utilisateur.
Centre de Calcul de l’Institut National de Physique Nucléaire et de Physique des Particules Table Ronde : Quelles orientations pour le CC ? JP2015, Autrans.
L’INFORMATIQUE SCIENTIFIQUE À PARIS SUD Cecile Germain, chargée de mission, pour le groupe de travail CR Pharmacie 20/10/15.
Communication LCG-France Colloque LCG France Mercredi 14 mars 2007.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
Stratégie technique G. Mathieu – V. Breton. Stratégie vers les fournisseurs de services et de ressources France Grilles2 Jouer le rôle central dans le.
Le Centre de Calcul de l'IN2P3 7 septembre 2010 Dominique Boutigny Un instrument informatique de pointe au service de la recherche Rencontre avec Oracle.
Réunion des utilisateurs de MUST 8 juillet 2011 Bourget du Lac.
Transcription de la présentation:

1 Le calcul et linformatique à lIN2P3 et au DAPNIA Prospectives, La colle sur Loup 2004 Contributions:B. Boutherin (sécurité), J. Delabrouille (Astro-particules), F. Etienne (Coordination, IN2P3), F. Hernandez (CC-IN2P3 et LCG), P. Micout (Dapnia), G. Wormser (EGEE) Linformatique des laboratoires de lIN2P3 et du Dapnia Le calcul pour les astroparticules Le calcul pour le LHC Fairouz O-Malek

2 F. Le Diberder (IN2P3) F. Etienne (IN2P3) F. Le Diberder (IN2P3) F. Etienne (IN2P3) Organisation de lInformatique et du calcul J-P. Génin (CEA/DSM) J. Le Foll (DAPNIA) J-P. Génin (CEA/DSM) J. Le Foll (DAPNIA) Informatique labo IN2P3 CC-IN2P3 D. Linglin Calcul LHC: LCG Utilisateurs IN2P3/Dapnia Comité des utilisateurs Responsables Informatique des labos BaBar Resp. Calcul exp. Informatique labo IN2P3 D0 Théorie Gestion des ressources

3 Linformatique des laboratoires de lIN2P3 et du Dapnia Le calcul pour les astroparticules Le calcul pour le LHC

4 233 Informaticiens à lIN2P3 (juin 2004) Informaticiens = 6% effectifs Informaticiens = 15% ITA Développeurs= Offline+Online ASR=administrateurs systèmes et réseaux

5 La sécurité informatique Enjeux de la sécurité informatique à lIN2P3 –Continuité du service –Risque juridique –Vol de ressources –Image de marque Menace : liée au nombre de machines visibles sur Internet (3000) Vulnérabilité : 500 avis de sécurité par an SQL injection Buffer overflow Ver Virus Actions mises en place Filtrage en entrée, cloisonnement des réseaux, chiffrement des communications (SSH), surveillance réseau. Juridique : mettre en place une structure pour pour dégager la responsabilité de lIN2P3 en cas de plainte. Code pénal

6 Le CC-IN2P3 Chiffres –54 personnes (07/10/04) dont CDDs: 25 (46%), Permanents: 29 (54%) financements des CDDs: Sur convention: 13 personnes (EPT) CNRS: 4 personnes (2 EPT) EGEE (Grille de calcul): 7 personnes -- bientôt 10 RUGBI (Grille bio): 1 personne –Budget (2004) Origine k % Total CNRS DSM-CEA Autres, CDD (EGEE, Grille, …) Total

7 Le CC-IN2P3 Chiffres (suite) – CPU: 1,2 MSI2K Linux (environ 700 machines biprocesseurs) –disque ~ 100 TO –bande ~ 700 TO –2500 comptes –~40 expériences (+groupes bio) Évolution –Dun centre de ressources vers un centre de services –Mise en place de solutions élaborées adaptées aux expériences y compris des services autres que le calcul et le stockage (hébergement web, visio- conférence, webcast,…)

8 Le CC-IN2P3 Gestion des ressources: Gestion des ressources: un comité IN2P3 qui se réunit 1 fois par trimestre pour régler et corriger les répartitions calcul par expérience: Les ressources demandées sont au delà des capacités du Centre de calcul !!!! 10 expériences consomment 85% des ressources du CC-IN2P3

9 Le CC-IN2P3 Croissance 100% par an de la puissance CPU et de la capacité de stockage sur bande (à budget constant) Légèrement moins en stockage disque DAPNIA: depuis 1993 Une convention triennale le lie à lIN2P3 pour lutilisation des moyens de calcul centraux. Annèe Contribution au CC en k

10 Le CC-IN2P3 LCG: ~70% LCG: 20%

11 Le CC-IN2P3 Les expériences LHC deviennent prioritaires –Budget et ressources humaines actuellement disponibles ne permettront pas de satisfaire les besoins à venir –Rôle prépondérant du CC-IN2P3 pour la composante française de ces expériences en tant que centre de services connecté à la grille Travail Collaboratif: Dans un modèle de calcul global, le travail en étroite collaboration entre le représentant expert de chaque expérience au CC-IN2P3 est fondamental –Success Stories: Babar et D0 –En cours de mise en place: LCG –Le CC souhaite que la composante française de chaque expérience tienne compte des besoins en ressources humaines correspondantes

12 Linformatique des laboratoires de lIN2P3 et du Dapnia Le calcul pour les astroparticules Le calcul pour le LHC

13 Expériences astroparticule préparation acquisition analyse AMS Antares Archeops Auger Edelweiss GLAST HESS LISA NEMO Planck SNLS VIRGO

14 Besoins spécifiques à l'Astroparticule - Augmentation du stockage disque (données modestes mais beaucoup d'accès) - Besoin de bande passante spécifiquement pour la visualisation - Besoin de manipuler des dizaines de GO en mémoire (ou des centaines) Questions ouvertes - Pic dans les besoins de disque et de CPU en même temps que LHC (2007) pour les expériences HESS, Planck, VIRGO, GLAST - Rôle du CC pour l'organisation / la distribution des données astroparticule ? (implication pour les moyens humains au CC et dans les labos) Evaluation des besoins -Dépend fortement du taux d'implication du CC (de 0% à 100% des moyens) -Dépend fortement du rôle du CC (e.g. service pour la composante française de l'expérience, pour toute l'expérience ou pour toute la communauté scientifique ?) -Dépend des méthodes de traitement encore en cours de développement -Dépend de la qualité ultime des données (ex. Planck, problème de "trivial" à "insoluble")

15 TO/an science Total TO produits Stockage (TO)Disque (TO)RAM (GO) "partagée" AMS n ans <1 Archeops ANTARES n ans <1 AUGER1 1 n ans EDELWEISS4 4 n ans 20<1 GLAST HESS15-30 (15-30) n ans 30 n ans <1 LISA0,05 (TBC)???? NEMO???? Planck (TBC) (TBC) SNLS10 10 n ans 3 (TBC) VIRGO n ans 2?

16 UI 2004 demandé Gflop/s à prévoir à terme Dates approx.Heures CPU 1GHz Personnes dédiées CC % au CC pour l'exp. AMS0.3M? ?? Archeops0.6M MHr/an0100% ANTARES0.5M …10 MHr/an? AUGER7M …10 MHr/an EDELWEISS …100% GLAST? …??20% (TBC) HESS4M … 1. MHr/an 1.5 MHr/an 100% LISA? …??20-50% NEMO6M??? Planck MHr/an1 ?10-30% (en négociation avec lINSU) SNLS MHr/an VIRGO2M …15 MHr/an050%

17 Le calcul astroparticule est en augmentation au centre (en %) (Remarque : ~16% demandé, ~38% consommé les 4 premiers mois de 2004 !) Ceci correspond à un besoin réel et traduit l'investissement croissant des équipes IN2P3 dans le traitement des données des expériences astroparticule et cosmologie La montée en puissance des activités VIRGO, Planck, LISA va encore augmenter considérablement les besoins d'ici quelques années %

18 Estimation des demandes pour les 5 ans à venir Stockage : ~ 3-6 PO Disque :~ 700 TO MHr 1GHz :~ 70 MHr/an …soit ~ 8000 CPU à 1 GHz… (1500 machines actuelles) PLANCK: Une machine dédiée au calcul parallèle disposant de 500 processeurs et dun réseau haute performance est actuellement envisagée (1 M)

19 Linformatique des laboratoires de lIN2P3 et du Dapnia Le calcul pour les astroparticules Le calcul pour le LHC

LCG 20 LHC Computing Grid Project – LCG

LCG 40 million de collisions par seconde Après filtrage, ~100 collisions dintérêt physique par seconde 1-10 Megabytes de données digitisées pour chaque collision taux stockage: GigaBytes/sec ~ collisions enregistrées par an quelques PetaBytes/an CMSLHCbATLASALICE LHC Computing Grid Project – LCG

LCG 22 Europe: 267 instituts 4603 utilisateurs Hors Europe: 208 instituts 1632 utilisateurs La communauté du CERN

LCG 23 Le LHC Computing GRID - LCG Objectif: fournir LINFRASTRUCTURE de calcul pour LHC 4 expériences, 1 seule infrastructure 20% des ressources seront présentes au CERN (80% du temps du LEP, 50% BABAR,..) Quatre zones dactivités Applications area (POOL, GEANT4, outils logiciels,..) Fabric management Grid technology area Grid deployment area Deux phases R&D : (Contribution volontaires des états membres) Déploiement

LCG 24 RAL IN2P3 BNL FZK CNAF PIC ICEPP FNAL Tier-1 Petits centres Tier-2 Postes de travail USC NIKHEF Krakow CIEMAT Rome Taipei TRIUMF CSCS Legnaro UB IFCA IC MSU Prague Budapest Cambridge IFIC LHC: 140 sites actuellement connectés sur la grille de calcul mondiale 3 différentes technologie (protocoles) de grille: LCG-2, GRID3, NorduGrid Mais dautres grilles HEP existent et sont performantes: SAM-GRID (D0)

LCG 25 LCG-2 Actuellement 80 sites Compagnie générale de géologie 2 sites Français

LCG 26 Current Grid3 Status ( 30 sites, multi-VO Grid 3

LCG 27 NorduGrid & Co. Resources 7 countries: Sites for ATLAS: 22 Dedicated: 3, the rest is shared CPUs for ATLAS: ~3280 Effectively available: ~800 Storage Elements for ATLAS: 10 Capacity: ~14 TB, all shared 30 sites

LCG 28 LCG-2 et les générations futures du logiciel (Middleware) LCG-2 est le service principal pour 2004 pour les data challenges Le logiciel (middleware) LCG-2 va être mantenu et développé jusquà ce que la nouvelle génération aura été éprouvée (et aura fait preuve de stabilité et defficacité) LCG-2 Nouvelle Génération prototypeproduit en développementService principal

LCG 29 RAL IN2P3 BNL FZK CNAF PIC ICEPP FNAL Tier-2 – stockage disque Simulation Travail danalyse du physicien Tier-1 Petits centres Tier-2 Postes de travail portables USC NIKHEF Krakow CIEMAT Rome Taipei TRIUMF CSCS Legnaro UB IFCA IC MSU Prague Budapest Cambridge IFIC Le modèle de computing du LHC Tier-0 – Le lieu de laccélérateur Données brutes Reconstruction des donn é es : ESD Stockage donn é es brutes et ESD Distribution données brutes et ESD aux Tier-1 Tier-1 – Management du stockage de mass services de la grille indispensables Retraitement données brutes ESD Support National et régional Budget global : 200M Tier-0+Tier-1 CERN: ~90 M

LCG 30 Estimations préparées pour la Task Force du MoU, Juin 2004, Guy Wormser

LCG M LCG-POB, Août 2004, Les Robertson - 12 M

LCG 32 Data Challenges Un effort de production à grande échelle pour les expériences LHC dans le cadre du projet LCG Tests et validation des modèles de calcul (computing models) Production des données nécessaires de simulation Test de la production dans le cadre de larchitecture du logiciel de lexpérience Test des logiciels de la grille de calcul Test des services fournis par LCG-2 Toutes les expériences ont utilisé LCG-2 en tout ou en partie de leur production

LCG 33

LCG 34 CERN Brookhaven INFN 1 Espagne UK

LCG 35

LCG 36 Phase 1 finie DIRAC alone LCG in action /day LCG paused /day LCG restarted 186 M Produced Events 186 M events et 61 TBytes Total CPU: 424 CPU an sur 43 sites LCG-2 et 20 sites DIRAC Jusquà 5600 jobs en compétition sur LCG-2

LCG 37 Partage DIRAC-LCG May: 89%:11% 11% of DC04 Jul: 77%:23% 22% of DC CPU · Years 5 à 6 fois plus que possible au CERN seul Aug: 27%:73% 42% of DC04 Jun: 80%:20% 25% of DC04

LCG 38 EGEE : Enabling Grids for EsciencE But Créer une infrastructure de qualité de la Grille Européenne (HEP + Bio + Météo + …)Status Plus grande collaboration développement de la grille dans le monde Budget: 100 millions /4 ansMoyens Soutenir les efforts actuels et plannifiés des programmes GRID nationaux et régionaux (e.g. LCG) Travailler étroitement avec les développements de la grille dans lIndustrie et collaborer avec les recherches hors Europe (US) EGEE applications Geant network

LCG 39 La complémentarité EGEE-LCG EGEE est un projet MultiSciences Européen LCG est un projet de la Physique des Particules au niveau mondial EGEE et LCG utilisent la même INFRASTRUCTURE constituée par des noeuds répartis à travers le monde (80 aujourdhui) et dun logiciel (actuellement LCG-2). La grande majorité de ces ressources et d'utilisateurs appartient à la communauté HEP. Le développement du middleware (logiciel intermédiaire) est assuré par EGEE, qui délivrera LCG-3=EGEE-1 au printemps EGEE exploitera l'infrastructure qui sera utilisée par LCG.

01/06/2004 Equipe LCG Tier-1 Services Grid, Exploitation & Support Equipe LCG Tier-1 Services Grid, Exploitation & Support Groupe Applications LHC Tier-2 LPC Clermont Ferrand Tier-2 LPC Clermont Ferrand Tier-2 Labo IN2P3/DAPNIA LAL … Tier-2 Labo IN2P3/DAPNIA LAL … Projet LCG Autres Tier-1 CC-IN2P3 Direction CC-IN2P3 Direction Le projet LCG-France responsable scientifique: F.OM (LPSC) responsable technique: F. Hernandez (CC-IN2P3) comité de pilotage (incluant resp. LCG/CERN) comité direction Tier-2 ? Subatech Tier-2 ? Subatech Data-Challenges ALICE Nœuds EGEE Resp. calcul expériences ALICE: Y. Schutz ATLAS: A. Rozanov CMS: C. Charlot LHCb: A. Tsaregorodtsev Financements locaux > 80% SC2, POB, GDB, GDA, …

Le Centre Tier-1 Français hébergé au CC-IN2P3 Au démarrage du LHC, il devra fournir: CPU: ~12M SpectInt2000 (équivalent 6000 machines biprocesseurs) Stockage disque et stockage permanent: ~ 6 PétaOctets Connectivité réseau (RENATER) avec le Tier-0 (CERN) de 10 Gbps Service et Support à la communauté d'utilisateurs de LCG, 24h/24 et 365 jours/an LCG: ~70% LCG: 20%

AnnéeBudget 20052,3 M 20063,3 M 20074,6 M 20086,2 M TOTAL16,4 M Année Personnel CC-IN2P3 affecté à LCG (ETP) Embauches nécessaires (ETP) Total (ETP) Demandes budgétaires et de ressources humaines Tier-1 Année Renouvellement du matériel LCG et frais de fonctionnement (M) Coût Annuel Ressources Humaines (M) Total annuel (M) 20093,02,25, ,02,25, ,02,25, ,02,25,2 Budget requis : 26 M Budget requis au-delà de 2008

43 Conclusions La sécurité est un domaine critique, important, sérieux et il faudra sattendre à des limitations des modes de travail Laugmentation des ressources du centre de calcul CC-IN2P3 par la loi de Moore (1.6) ne semble pas satisfaire les expériences LHC (et peut-être aussi les Astro) A la demande de LCG-France, le DG du CNRS semble avoir été réceptif à la nécessité daugmenter les ressources en calcul des expériences LHC Comment tout ceci sintègre-t-il au CNRS dans le cadre de la mise en place des TGE ??