ATLAS et l’analyse au CCIN2P3  Le modèle de calcul de ATLAS  L’analyse à Lyon  Points critiques Avertissement : cette présentation n’est malheureusement.

Slides:



Advertisements
Présentations similaires
Ne laissez aucune perturbation vous échapper
Advertisements

LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Lyon/ENS DATA GRID-ATLAS ISN Grenoble 1 Portage dune application de physique sur la datagrid Application existante : –Génération/simulation/reconstruction/analyse.
Intégration du système de production LHCb sur la DataGRID V. Garonne, CPPM, Marseille Réunion DataGRID France, 13 fv fév
Evaluation TICE 1 Les Antivirus Par Laura PARTINICO
1 Ne laissez aucune perturbation vous échapper Tester la qualité du réseau électrique dans les systèmes d'alimentation de secours.
Risques de perte d’accès aux données archivées
Malgré les intempéries de la vie restez centrer et stable…
Parcours de formation SIN-7
Besoin et fonctionnement
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
Universté de la Manouba
Le forage de données ou data mining
Les interrogations formatives Une nécessité. Public concerné Première baccalauréat en médecine et dentisterie Premier baccalauréat en kinésithérapie et.
Portée, arrimages et intervenants Évolution des méthodes
UTILISER LE NUMERIQUE POUR DIVERSIFIER LES MODES DE COMMUNICATION AVEC LES ELEVES DANS LA DISTRIBUTION DES CONSIGNES GRUNEPS ACADEMIE ORLEANS - TOURS.
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
Plus simple à utiliser Une interface d’administration entièrement remaniée rend plus facile l'apprentissage de Drupal.
9-mai-2006 Eric Lancon 1 Tier-1 et Ferme d’Analyse à Lyon Tier-1 de Lyon  Processing et stockage des données réelles  Stockage des données de simulations.
Réunion LCG-France, 7/4/2008 C.Charlot Acc è s aux donn é es Accès à dCache Problèmes de stageout des fichiers produits sur les WNs  Aussi pour le stagein.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
Frédérique Chollet Yannick Patois Réunion LCG-France, Nantes 19 septembre 2012 Résultats du questionnaire DPM.
Mod è le de Calcul CMS C. Charlot / LLR CTDR:
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Nicolas Rageul, Yvan Bédard, Jacynthe Pouliot, Michel Fortin
CATIA V5 au CERN CATIA V5 et SmarTeam TS Workshop
Déploiement LCG-2 Etat actuel au CC-IN2P3 Fabio Hernandez Centre de Calcul de l’IN2P3 Lyon, 22 juillet 2004.
CAF-13/09/2010Luc1 Squad Report T2 Période 19/06-11/09 Irena, Sabine, Emmanuel.
Service Challenge 4 – Tests de Débit Bilan pour le Tier-1 LCG-France Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3
Palaiseau Réunion CCIN2P3/LCG 22/07/2004 Distribution des données CMS Distribution des données et préparation de l’analyse Production MC distribuée et.
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Des données numériques aux résultats de physique ATLAS offline reconstruction de données CERN ATLAS groupe ATC.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
SC4 ATLAS Ghita Rahal CC-IN2P3 Réunion LCG FRANCE Direction 3 Juillet 2006.
ATLAS Ghita Rahal CC-IN2P3 Novembre 9, /6/2006Réunion CAF2 Activités Création et externalisation d’outils de monitoring de l’état du T1 (CPU,
1 Activités top au CPPM Permanents: F. Hubaut, E. Monnier, P. Pralavorio Thésard: B. Resende Visiteur: C. Zhu  : polarisation du W et du top.
15 Novembre 2004F.Vezzu S.E.R.M/LPSC Grenoble Journées Mécaniques IN2P3 1 Regards sur SmarTeam 1.Rappels 2.Historique 3.Réticences 4.Intérêts 5.Bilan.
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
Smain Kermiche Reunion D0 France - Strasbourg /11/ Installation du soft de D0 au CCin2p3 Structure du soft /fnal, /d0usr /d0dist Data bases.
D0 côté info D0 à FNAL  Données du RunII  Infrastructure matérielle  Infrasturucture logicielle  Monte Carlo à D0 D0 à Lyon  Production Monte Carlo.
LE CADENCIER DES VENTES
Rédiger des procédures efficaces
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
Café In: A quoi ca sert la recherche sur la programmation? Comment peut on faire travailler des ordinateurs ensemble? Ludovic Henrio SCALE TeamSCALE Team.
TSTC développement de clientèles 1 Le système d'information mercatique (SIM)
BaBar France 18/01/2010 Vincent Poireau 1 Page d’aide :
5 mai 2008J-P Meyer1 Eléments de réflexion pour une ressource d’analyse - Trois exemples de travaux d’analyses effectuées à l’IRFU dans ATLAS: 1) AOD –>
(Mon) Résumé (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Marseille, 25 juin 2010.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
Autour du H  ZZ*  4l Groupes français impliqués: Saclay +Orsay Sujets d’analyse en charge: 1)Performances Muon et electrons 2) Optimisation des coupures.
Eric Lançon1 Calcul ATLAS en France Le CAF au PAF * CAF : Calcul Atlas France *Célèbre contrepèterie.
1Prod Monte Carlo sur le nuage français La production Monte-Carlo sur le nuage français J.Schwindling CEA / DAPNIA Organisation de la production Monte-Carlo.
11/9/07-PAFL.Poggioli/LAL1/25 Gestion des données : DDM Distributed Data Management Préambule Le modèle ATLAS DDM –Principe, Tests, Suivi, Problèmes Next.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
CMS CCRC08 phase 2 C. Charlot / LLR LCG-DIR juin 2008.
6-7 Octobre 2008J-P MEYER1 Conclusions du groupe de travail thématique 7 Physique subatomique: - physique des particules, - physique nucléaire, - astroparticules.
Conclusions (?) Fabio Hernandez Frédérique Chollet Fairouz Malek Réunion Sites LCG-France Annecy, May
C. Charlot, LLR Ecole Polytechnique DC04 CMS Objectif numéro 1: préparation du traitement offline Différent des productions MC précédentes Mise en route.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
Com. info., 7 avril 2011 Vincent Poireau 1. Rôle de la commission informatique Faire un bilan de l’informatique Evaluer les besoins des utilisateurs Proposer.
Fabio Hernandez Lyon, 9 novembre 2006 LCG-France Tier-1 Réunion de Coordination.
CAF-11/10/2010Luc1 Squad Report T1 Période 13/09-11/10 Irena, Sabine, Emmanuel.
20-mars-2008Eric Lançon1 Activités ATLAS sur le nuage Français Emprunts a K. Bernardet, C. Biscarat, S. Jezequel, G. Rahal.
Stratégie technique G. Mathieu – V. Breton. Stratégie vers les fournisseurs de services et de ressources France Grilles2 Jouer le rôle central dans le.
INFSO-RI Enabling Grids for E-sciencE Data management Daniel Jouvenot IN2P3-LAL ORSAY - 02/02/2007.
CALCUL ATLAS LCG France (CC IN2P3 Lyon) 30 Avril SOMMAIRE Data Challenge 2 (DC2) d’ATLAS Utilisation du CC IN2P3.
05-fevrier-2007Eric Lancon1 ATLAS Bilan Planning 2007.
Gestion des données : DDM Distributed Data Management
Résumé de la réunion PAF-CAF 12/04/2010
Transcription de la présentation:

ATLAS et l’analyse au CCIN2P3  Le modèle de calcul de ATLAS  L’analyse à Lyon  Points critiques Avertissement : cette présentation n’est malheureusement pas donnée par la bonne personne Un grand merci à Éric pour les transparents sur le modèle de calcul !

 Le modèle de calcul  Les données :  RAW : données brutes, format ‘bytestream’, 1.6 MB/evt (stat. attendue en 2009/2010 : ~ 1G evts)  ESD : ‘Event Summary Data’, format POOL/ROOT, MB/evt résultat très détaillé de la reconstruction (e.g. information suffisante pour re-ajustement de traces, recherche et étalonnage des jets…)  AOD : ‘Analysis Object Data’, format POOL/ROOT, 100 kB/evt résumé de la reconstruction, suffisant pour la plupart des analyses  DP n D : ‘Derived Physics Data’ ~ petit AOD pour n = 1,2 peut être un ntuple ou des histogrammes standard pour n ≥ 3  TAG : ‘Tag Data’ 1kB/evt utilisés pour une sélection rapide des événements (~ base de données) En 2009/2010 : utilisation intensive des ESD (et RAW) pour étalonnage, compréhension du détecteur, etc… En mode stable (> 2010) l’analyse utilisera essentiellement les DP n D

 L’organisation du calcul BNL LPC Tokyo NW GRIF T3 NET2 FR Cloud BNL Cloud Pékin NG LYON BNL FZK TRIUMF ASGC PIC SARA RAL CNAF CERN Clermont LAPP CCPM Roumanie SWMW GL SLAC TWT2 Melbourne  10 nuages formés de 1 Tier1 et n Tier2/Tier3 sur le Tier1 : - stockage 10% RAW, 20% ESD, 100% AOD - reprocessing (et redistribution) sur les Tier2 : - stockage 100% AOD sur ∑(Tier2) - production Monte-Carlo - analyse  Un Tier0 : CERN - stockage des RAW - première reco. - distributions des RAW/ESD/AOD Les Tier0,1 et 2 sont vus par tout ATLAS Les Tier3 ne sont pas intégrés à l’organisation Grid

Made in central production (T1) Made in T2/T3  Le modèle d’analyse ARA : AthenaROOTAccess permet de lire les objets (quantités reconstruites) directement dans ROOT Athéna : cadre logiciel de base (avec Gaudi, en collaboration avec LHCb)

Le rôle du CC : Lyon est le Tier1 français  Stockage : - 10% RAW sur bande, 1% sur disque - 20% ESD (disque) - 100% AOD, DP 1 D - constantes d'étalonnage (base de données ORACLE)  Reconstruction : - reprocessing : RAW  ESD  AOD - production des DP 1 D (contenu défini par les groupes de physique)  Accès aux RAW/ESD pour étalonnage, corrections du code, développements des algorithmes  Une spécificité absente du modèle de calcul : Comme dans d’autres Tier1, il a été décidé de profiter de l'accès local aux données pour installer une ferme d’analyse dimensionnée pour ~ 80 utilisateurs

 L’analyse à Lyon  Méthode traditionnelle, la voie facile  Souvent plus facile d’utiliser le batch non grid données (éventuellement privées) archivées sur hpss, sps ou dCache + batch pour - reconstruction privée, possible pour de faible volume de données - produire des ntuples analysés en interactif - analyse directe, e.g. via ARA  Si données facilement accessibles (e.g. privées) méthode très efficace, retour rapide  La voie facile n’est malheureusement pas la bonne méthode (recommandée) et n’est pas viable dès que de gros lots de données sont considérés

 Méthode ‘officielle’ : la voie difficile via la Grille  Actuellement, le CC est plus utilisé comme élément de calcul et de stockage que pour l’analyse interactive - Préparation : où sont les données (datasets) ? Outils de gestion des données (DDM), e.g. DQ2 Cas idéal et mode stable : analyse des AOD et DP 1 D : toutes à Lyon - Lancer les jobs avec les outils PanDA ou Ganga - Récupérer les résultats Avec PanDA, ces résultats sont des datasets enregistrés automatiquement sur la Grille et DQ2 permet de les récupérer facilement Selon l’utilisateur, les datasets de sortie peuvent correspondre quasiment aux résultats finals, e.g. histogrammes pour figures finales, ou au contraire correspondent juste en une copie dans un format agréable (e.g. ntuple plat) d’une part des info. contenues dans les AOD ou DPD, pour analyse plus lourde dans ROOT (par exemple, refaire l'étiquetage des jets beaux)

 La partie interactive dépend beaucoup de l’utilisateur, pas de procédure recommandée pour le moment  stockage temporaire sur disque semi permanent sps et analyse interactive  stockage temporaire sur disque semi permanent sps ou sur hpss et analyse batch  récupération des ntuples sur PC personnel pour analyse locale Ces procédures artisanales ne sont possibles uniquement que pour des volumes de données relativement faibles  doit évoluer rapidement pour le début de la prise de données. Par exemple :  mettre en oeuvre xrootd + PROOF à Lyon  pour les Tier2/3 : glitePROOF (tests au CPPM)

 Les points critiques  Le hardware le plus important : Préparation de l’analyse, compilation : AFS Le code ATLAS est TRÈS lourd, beaucoup de dépendances à contrôler  si AFS est lent ou instable, extrêmement difficile de travailler  plusieurs utilisateurs ont essayé de développer du code au CC… … et sont vite repartis ailleurs  une part de responsabilité vient de ATLAS, pour une gestion approximative du stockage des releases (résolu ?) L'accès aux données et dCache  Les événements et les conditions (constantes d'étalonnage, etc…) sont stockées sur dCache  Malheureusement dCache n’est pas stable ni fiable !

Les problèmes avec dCache :  Des fichiers existant dans le catalogue ne sont en fait pas présents dans dCache  Au mieux, les jobs échouent (extrêmement désagréable pour un job Grille, par exemple, qui doit lire 50 fichiers, mais échoue car l’un d’entre eux n’est pas trouvé)  Au pire, les jobs ne font rien, aucun diagnostique possible par l’utilisateur (l'équipe du CC peut déterminer les fichiers problématiques qu’un job essaie d'accéder)  Manque de fiabilité : des fichiers sur dCache peuvent disparaître ! (ou c’est l’impression qu’on a) … plutôt effrayant … (heureusement que les RAW existent en 2 exemplaires à travers le monde)  Lenteur : l'accès aux données dans les jobs Athéna semble très lent Tous ces points faibles conduisent à la situation absurde dans laquelle beaucoup d’utilisateurs copient (parfois en les cherchant sur d’autres sites) les données sur sps avant de les utiliser. Cela ne sera évidemment plus possible au démarrage de la prise de données.  Sur cet aspect, nous ne sommes absolument pas prêts (je pense…)

 Le CC par rapport au CERN ou BNL  Préparation de l’analyse, partie interactive : besoin de compiler souvent donc rapidement : en général, très pénible au CC Au CERN, AFS semble beaucoup plus rapide.  la majorité (tous ?) des développeurs travaillant en France sur les nightlies (version du code mise à jour quotidiennement) le font au CERN  En revanche, l’utilisation du batch au CERN est pénible (temps d’attente beaucoup trop long, vu le nombre d’utilisateurs)  préparation du code au CERN, soumission des jobs ailleurs (au CC)  De plus en plus d’utilisateurs soumettent les jobs Grille via PanDA Par défaut, ils tournent à BNL Démarrage rapide des jobs (malgré un grand nombre d’utilisateurs) et retour rapide Si on force à tourner à Lyon : longue attente avant démarrage (parfois justifiée par un grand nombre de jobs en queue, parfois incompréhensible) + problèmes dCache  beaucoup d’utilisateurs choisissent le site par défaut, i.e. BNL (sauf cas de force majeur, e.g. utilisation de datasets absents à BNL)

Un exemple concret (C. Collard) : Le même job, sur le même dataset, à Lyon ou BNL :  Réponse en moins d’un jour à BNL, taux d'échec faible  Au CC, temps de réponse jusqu’à 1 semaine ! Et taux d'échec élevé  Pour être tout à fait juste : En février et mars : les stats. de BNL ont un peu chuté Sur la même période, le CC semble en net progrès (aux problèmes de dCache près) Cependant, en intégré, depuis que l’utilisation de Grille/PanDA s’est généralisée pour l’analyse BNL semble loin devant Lyon, c’est notre référence

 Le CC n’est pas du tout prêt pour l’analyse efficace des données d’ATLAS (mon opinion)  AFS et dCache sont des facteurs extrêmement limitants  Même s’il semble y avoir des progrès depuis ~ 1 mois, beaucoup de choses restent à améliorer rapidement, notamment un support plus réactif une meilleure distribution des informations (par exemple des news plus explicites) more work is needed…