Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.

Slides:



Advertisements
Présentations similaires
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Advertisements

Nadia LAJILI STATUS REPORT WP6 Workshop Oxford Lyon,le 19 Juillet 2001.
La Grille de Calcul du LHC
Planification budgétaire Tier-2s Tier-3s Fairouz Malek, Fabio Hernandez, Frédérique Chollet Comité de direction 7 juillet 2008.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
9-mai-2006 Eric Lancon 1 Tier-1 et Ferme d’Analyse à Lyon Tier-1 de Lyon  Processing et stockage des données réelles  Stockage des données de simulations.
Software engineering, data stores and databases CHEP 2010 Andres Gomez Casanova CC-IN2P3 Storage Team.
Calcul CMS: bilan CCRC08 C. Charlot / LLR LCGFR, 3 mars 2008.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
2-mars-2009Eric Lançon1 Nouvelles d’ATLAS Reunion LCG 2 mars 2009 Lyon.
Mod è le de Calcul CMS C. Charlot / LLR CTDR:
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Projet LCG-France Planning Ressources humaines
Tier1 at the CC-IN2P3 March Current state at the CC-IN2P3 storage, computation, network...
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
CAF-13/09/2010Luc1 Squad Report T2 Période 19/06-11/09 Irena, Sabine, Emmanuel.
Le noeud de grille Tier 3 LAPP.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Rapport du ROC France Pierre Girard French.
DataGrid, LCG, EGEE au CC Rolf Rumler Coordinateur EGEE au CC
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Frédéric Hemmer, CERN, Département ITLa Grille de Calcul du LHC – septembre 2007 La Grille de Calcul du LHC Frédéric Hemmer Adjoint au Chef du Département.
SC4 ATLAS Ghita Rahal CC-IN2P3 Réunion LCG FRANCE Direction 3 Juillet 2006.
1 Activités top au CPPM Permanents: F. Hubaut, E. Monnier, P. Pralavorio Thésard: B. Resende Visiteur: C. Zhu  : polarisation du W et du top.
HEPIX N. Neyroud 1.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
Le programme présent  GLAST (2008, calorimètre, calibration, logiciels, LLR,CENBG,LPTA )  13 chercheurs, 2 IR, 4 thèses, 2 post docs  ¼ des coordinateurs.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
GRIF Status Michel Jouvin LAL/Orsay
(Mon) Résumé (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Marseille, 25 juin 2010.
Journée Projets, 23 novembre 2010 Etienne Augé Directeur Adjoint Scientifique Physique des Particules Physique des Particules Projets 2011.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Enjeux, succès et défis des grilles en physique des hautes énergies Faïrouz Malek, CNRS Paris le 3 Décembre 2007.
1Prod Monte Carlo sur le nuage français La production Monte-Carlo sur le nuage français J.Schwindling CEA / DAPNIA Organisation de la production Monte-Carlo.
11/9/07-PAFL.Poggioli/LAL1/25 Gestion des données : DDM Distributed Data Management Préambule Le modèle ATLAS DDM –Principe, Tests, Suivi, Problèmes Next.
ATLAS et l’analyse au CCIN2P3  Le modèle de calcul de ATLAS  L’analyse à Lyon  Points critiques Avertissement : cette présentation n’est malheureusement.
25/06/20101LCG - France CPPM Marseille L’expérience CMS à GRIF LLR – E.Poly.,Palaiseau: Pascale Hennion Paulo Mora de Freitas Igor Semeniouk Philippe Busson.
Grid au LAL Michel Jouvin LAL / IN2P3
CAF LCG-FRANCE A.Rozanov LCG France 22 Juillet SOMMAIRE Composition CAF DC2 ATLAS Demandes fin 2004.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
CAF-11/10/2010Luc1 Squad Report T1 Période 13/09-11/10 Irena, Sabine, Emmanuel.
Resource allocation: what can we learn from HPC? 20 janvier 2011 Vincent Breton Crédit: Catherine Le Louarn.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Mercredi 22 juin 2016 Suivi des jobs grille Colloque LCG France Mars 2007.
LCG France point Réseau Mai 2013.
Tier2: Subatech Tier2: LPC Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier2: GRIF CEA/DAPNIA LAL LLR LPNHE IPNO AF: CC-IN2P3 Tier3: LAPP Tier1: CC- IN2P3.
PAF-CAF meeting 16-SEP-2010 Activités françaises au sein du groupe TOP A. Lucotte / LPSC, CNRS/IN2P3 1) Schéma de production des données par le groupe.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Monitoring dans EGEE Frederic Schaer ( Judit.
1DSM - IRFU / PM Compte rendu du site GRIF.
Le Centre de Calcul de l'IN2P3 7 septembre 2010 Dominique Boutigny Un instrument informatique de pointe au service de la recherche Rencontre avec Oracle.
ATLAS Analysis Challenge Résultats du Stress Test Frédérique Chollet Information disponible sur le wiki LCG-France
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
05-fevrier-2007Eric Lancon1 ATLAS Bilan Planning 2007.
Jeudi 12 decembre 2007 Le CC-IN2P3 Un instrument informatique de pointe au service de la recherche Traitement intensif de données et Sciences de la Vie.
Projet LCG-France Planning Fairouz Malek, Fabio Hernandez Responsables LCG-France Journées projets de l’ IN2P3 Paris, 5 juillet 2007.
LCG-FRANCE_19/05/09L. Poggioli1 ATLAS Activités du nuage FR Production MC Reprocessing Analyse Au quotidien Next L.Poggioli, LAL.
Gestion des données : DDM Distributed Data Management
Un instrument informatique de pointe au service de la recherche
ATLAS Computing model et utilisation de LCG
Utilisation effective de la Grille par ATLAS S. Jézéquel (LAPP)
Résumé de la réunion PAF-CAF 12/04/2010
LCG – France et ALICE Bilan 2006 Planning fevrier 2007
Transcription de la présentation:

Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie

Eric Lançon 2 Un peu de model de calcul Le nuage FR Les ressources que l'on a et va avoir Où et comment faire l'analyse des données Appel à volontariat

Eric Lançon 3 © Amir Farbin/UTA CHEP 2007 © Amir Farbin/UTA CHEP 2007

Eric Lançon 4 LYON BNL LPC Tokyo NW GRIF T3 NET2 All Tier-1s have predefined (software) channel with CERN and with each other Tier-1. Tier-2s are associated with one Tier-1 and form the cloud Tier-2s have predefined channel with the parent Tier-1 only. FR Cloud BNL Cloud Pékin “Tier Cloud Model” Unit : 1 T1 + n T2/T3 Within a cloud T1: 10 % RAW, 20 % ESD, 100% AOD  T2 : 100 % AOD, small fraction ESD,RAW ATLAS : Grid organisation - 0 NG LYON BNL FZK TRIUMF ASGC PIC SARA RAL CNAF CERN Clermont LAPP CCPM Roumanie SWMW GL SLAC TWT2 Melbourne

Eric Lançon 5 NG LYON BNL FZK TRIUMF ASGC PIC SARA RAL CNAF Raw data  Mass Storage at CERN Raw data  Tier 1 centers complete dataset distributed among T1s ESD  Tier 1 centers 2 copies of ESD distributed worldwide AOD  Each Tier 1 center 1 full set per T1 Original Processing  T0  T1 Original Processing  T0  T1 ATLAS : Grid organisation - I CERN

Eric Lançon 6 Reprocessing  T1 Reprocessing  T1 Each T1 reconstructs its own RAW Produces new ESD, AOD Ships : ATLAS : Grid organisation - II ESD to associated T1 AOD to all other T1s NG LYON BNL FZK TRIUMF ASGC PIC SARA RAL CNAF Plus de CERN…

Eric Lançon 7 Liaisons entre T1s Mais …~tout passe par le CERN… Ligne 10Gb dédiée Pas de liaison dédiée avec BNL

Eric Lançon 8 Tokyo GRIF Pékin Clermont Roumanie Tier-2 Monte Carlo production (ESD,AOD) Monte Carlo production (ESD,AOD) Ships RAW,ESD,AOD to associated T1 Physics Analysis Physics Analysis Gets (ESD) AOD from associated T1 ATLAS : Grid organisation - III NG LYON BNL FZK TRIUMF ASGC PIC SARA RAL CNAF

Eric Lançon 9 Un mot sur les T3s Objet pas très bien défini dans le cadre du model de calcul ‘Task force’ en place, Stéphane Jezequel pour FR Pour le moment les AODs sont distribués aux T3s du nuage FR, ce qui n’est pas prévu dans le model de calcul CHEP 2007

Eric Lançon 10 Tier-2 LPC Tier-2 GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier-2 GRIF CEA/DAPNIA LAL LLR LPNHE IPNO AF CC-Lyon AF CC-Lyon Tier-3 LAPP Lyon Clermont-Ferrand Ile de France Marseille Nantes Strasbourg Annecy Tier-3 CPPM ATLAS FR Sites Tier-1 CC-Lyon Tier-1 CC-Lyon

Eric Lançon 11 Tier-2 LPC Tier-2 GRIF CEA/DAPNIA LAL LLR LPNHE IPNO Tier-2 GRIF CEA/DAPNIA LAL LLR LPNHE IPNO AF CC-Lyon AF CC-Lyon Tier-3 LAPP Lyon Clermont-Ferrand Ile de France Marseille Nantes Strasbourg Annecy Tier-3 CPPM ATLAS FR Cloud Tier-1 CC-Lyon Tier-1 CC-Lyon Pekin Tokyo Roumanie Pekin

Eric Lançon 12 T1 de BNL associé à Lyon & FZK Tier-1 associations BNL Lyon FZK

Eric Lançon : ATLAS au CC Consommation CPU ~12% de la consommation CPU du CC Deuxième utilisateur ~75% jobs sont des jobs grilles.

Eric Lançon 14 Production Reprocessing Real DATA (MC) Production Reprocessing Real DATA (MC) User /atlas/fr User /atlas/fr User  Production MC DATA Production MC DATA Tier-1 Allocation MoU Tier-1 Allocation MoU Tier-2 Allocation MoU Tier-2 Allocation MoU Ferme Analyse Ferme Analyse Le CC en 2008 Tier-1  (re)processing des données Tier-2  Production MC  Analyse (ouvert a tous) Ferme d’Analyse: Tier- 3  Réservée au Français  Dimensionnée pour 80 utilisateurs

Eric Lançon 15 Evolution du T1 Actuellement CPU : 236 KSi2k Disk : ~210 TB Tape : 187 TB Actuellement CPU : 236 KSi2k Disk : ~210 TB Tape : 187 TB X 5-7

Eric Lançon 16 Les T2 du nuage FR en 2008 CC-Lyon

Eric Lançon 17 Sites Français en 2008 Pour utilisateurs GRIF Pour utilisateurs /atlas/fr CC-Lyon T1 T2 T3T3 T3T3

Eric Lançon 18 Replication des Data Bases En plus du CPU, des disques, il faut les constantes de calibrations Pas encore au niveau de faire du reprocessing COOL 2.1 Saturation pour ~10 jobs COOL 2.2 Réplications des databases ORACLE T0 -> T1 Tests au CC et à CNAF de configuration ORACLE du site et du software fct charge (Nb jobs simultanés)

Eric Lançon 19 Faire de l’analyse Obtenir un certificat  Indispensable pour utiliser la grille  …Ne s’obtient pas en quelques heures… Lire le manuel…  bin/twiki/bin/view/Atlas/Informatique bin/twiki/bin/view/Atlas/Informatique Toutes les versions récentes d’ATHENA disponibles au CC  Plus les nightlies (bug fix)  Compilation/link beaucoup plus rapide qu’au CERN! Toutes données M4 au CC Group /atlas/fr Frederic Derue

Eric Lançon 20 Quelques renseignements utiles User support :  : sujet général  : sujet spécifique ATLAS  : ATLAS contact au CC-Lyon  Tutorial Physics Analysis, March 5-7   Autres tutoriaux?

Eric Lançon 21 RB CE Task queue Task queue CE Distributed analysis tools Ganga   Developed on LCG  Push mode  Only for analysis Panda  Developed on OSG  Pull mode (Pilot jobs)  Fully integrated with DQ2 Outputs (libraries, logs, Ntup, etc..) are DQ2 datasets accessible through Panda browser  Same tool for Production Data analysis

Eric Lançon 22 La ferme d’analyse du CC- Phase 2 La partie batch est ~en place  PanDA / Ganga Reste à développer la composante ‘analyse interactive’  Facilité d’accès aux Datasets (tous au CC!) Un des outils possibles/probables : PROOF  ALICE, CMS?, ATLAS…  Le CC a les moyens humains et techniques et grande expertise grâce à BaBar  Il ne manque que quelque(s) courageu(x/ses) pour développer et tester le système

Eric Lançon 23 Futur proche et moyen

Eric Lançon 24 Quelques leçons et perspectives Les moins :  Pas encore ‘stable running’ mais ça vient,  Plus d’outils de monitoring SVP!  Séparation utilisateurs grille - utilisateurs root? Les plus :  Beaucoup d'améliorations en 2007,  La qualité et l'efficacité du FR-Cloud est reconnue,  Les moyens existent pour faire de l’analyse Alors :  Un peu plus d’engagement des physiciens Français  Il reste à mettre en place la composante ‘interactive’ de la ferme d’analyse du CC.