Compte rendu HEPIX et CHEP2015 Stockage et gestion des données

Slides:



Advertisements
Présentations similaires
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Advertisements

HEPIX N. Neyroud 1.
Migration du système de sauvegarde d’une infrastructure locale à un système centralisé IN2P3 101/06/2016 HEPIX Spring 2013 Muriel Gougerot (LAPP) and Remi.
05-fevrier-2007Eric Lancon1 ATLAS Bilan Planning 2007.
Jeudi 12 decembre 2007 Le CC-IN2P3 Un instrument informatique de pointe au service de la recherche Traitement intensif de données et Sciences de la Vie.
Fabio HERNANDEZ Responsable Grid Computing Centre de Calcul de l'IN2P3 - Lyon Lyon, 30 avril 2004 Déploiement LCG-2 au CC-IN2P3 Etat d’avancement.
Evaluation de requêtes Quelques résultats préliminaires 1 Amin Mesmoudi.
Vendredi 23 mars 2007 Le CC-IN2P3 Un instrument informatique de pointe au service de la recherche.
INFSO-RI Enabling Grids for E-sciencE Statistiques d'usage d'un site de la grille LCG/EGEE Emmanuel Medernach, IN2P3 LPC.
Evolution des services Retour sur les incidents récents: Disfonctionnements cluster SUN (répertoires disques) : – Incidents et actions réalisées Disfonctionnements.
JPF 2008 Gestion distribué de version avec Mercurial Michael Scherer JPF 2008.
Présentation LabPlus v3. Solution novatrice en Technologies de l’information Solution novatrice en Technologies de l’information Application pour la Gestion.
25/09/2016DRT du CRDP de l'académie de Lyon1 OCSInventory Expression du besoin Présentation OCS Démonstrations des fonctionnalités de base Déploiement.
Le système Raid 5 Table des matières Qu'est ce que le RAID ? Les objectifs Le raid 5 Les avantages et les inconvénients Les composants d’un Raid.
Yannick Patois 1 Utilisation LCG-France Les Technical Evolution Groups et LCG-France.
Xen et l' Art de la Virtualization Antoine Nivard Responsable technique Adéquat région Ouest Responsable de Site francophone de XEN Computer.
ALICE February/March exercise summary Latchezar Betev WLCG Collaboration Workshop 22 April 2008.
C. Charlot, Calcul CMS, LCG-DIR, fév 2007 Calcul CMS 2006 TDR de Physique CMS Physics TDR, Volume 1, CERN-LHCC , feb. 2006, 548pp CMS Physics TDR,
La technologie des mémoires
Brève histoire d’Internet
Mener une activité.
Power BI Premium : pour quels usages ?
Devenir d’AFS et remplacement progressif
Journée Analyse D0, 19 janvier 2004
AugerDb / SimDb Gestion des simulations Auger Java
CLUSTER DE BASCULEMENT SERVEUR DHCP
Le nœud de grille de calcul de l'IPHC dans CMS
Poste client et nfs/samba
Veille technologique Nassima Mahcer 17 MAI 2017.
Lustre au DAPNIA.
Réunion Analyse D0 France au CCIN2P3 19 janvier 2004
Virtualisation d’applications mobiles dans un réseau de Cloudlets
Les nouveautés dans les modèles de Calcul au LHC
Vue d'ensemble de l'utilisation du CCIN2P3 par les expériences LHC
Un instrument informatique de pointe au service de la recherche
Technologies de l’intelligence d’affaires Séance 14
Configuration de routes Statiques Flottantes
Etat des services grid de production
12 mars 2004, Lyon Reunion CAF F.Chollet 1
Fonctionnement de la grille
Activités présentes et à venir
Etat des lieux des VO Boxes LHC
Projet de participation CMS au GRIF
2018/8/9 CLAP Cluster de virtualisation et de stockage distribué du LAPP Mardi 26 avril 2016 Entrez votre nom.
LCG-France Tier-1 & AF Réunion mensuelle de coordination
LCG –France Tier2 & AF Réunion de Coordination – Problèmes récurrents des VOs 11 Juin- 10 Septembre Hélène CORDIER.
Quoi de neuf dans la communauté HPSS
mardi 11 septembre 2018mardi 11 septembre 2018
AD & DNS, Cluster Apache Préparation des TP.
TreqS TReqS 1.0.
Les centres d’analyse: introduction
Documentation technique (Linux)
Direction commerciale
Résumé de la réunion PAF-CAF 12/04/2010
PROGRAMMATION INFORMATIQUE D’INGÉNIERIE II
Un Projet IaaS ? Emmanuel Braux
Migration de l’architecture classique vers le cloud privé
HEPIX FALL 2013 Résumé.
PEER TO PEER.
GADGETBOX Évolution.
LLAGONNE Vincent MAUPIN Nicolas FERNANDEZ Quentin
Module 13 : Implémentation de la protection contre les sinistres
Déploiement Windows 10 Forum du CEG 2017 Polyvalence Qualité
Représentant technique Représentant scientifique
DC04 CMS Objectif Status Planning
LIVE MIGRATION Windows Server 2012 & Hyper-V3
LUSTRE Integration to SRM
LCG – France et ALICE Bilan 2006 Planning fevrier 2007
Numérique et Sciences Informatiques
Traitement de TEXTE 2 Stage – Semaine 3.
Transcription de la présentation:

Compte rendu HEPIX et CHEP2015 Stockage et gestion des données Pierre-Emmanuel Brinette, 29/05/2015

2/3 des présentations stockage à HEPIX était relatives à CEPH CEPH à toutes les sauces CEPH : Système de stockage objet distribué à usage multiple, tolérant aux pannes et extensible Stockage objet : Accès via une API ou une interface HTTP/REST Stockage en mode bloc : Disque virtuel accédé par des VM Système de fichier : CephFS compatible POSIX 2/3 des présentations stockage à HEPIX était relatives à CEPH Enabling Object Storage via shims for Grid Middleware Current Status of the Ceph Based Storage Systems at the RACF Ceph storage at RAL POSIX and Object Distributed Storage Systems: Performance Comparison … Ceph-based storage services for Run2 and beyond Integrating CEPH in EOS Ceph development update CHEP : http://indico.cern.ch/event/304944/session/3/?slotId=4#20150416 HEPIX : https://indico.cern.ch/event/346931/timetable/#20150325.detailed CR HEPIX & CHEP 2014 29/05/2015

Disque dur Ethernet Disque dur embarque un CPU 1 CPU ARM / RAM / Ethernet OS s’exécute dans le disque (ie Linux) Accès au donnée via protocole réseau Exemples d’applications : Nœud OSD CEPH Pool dcache Avantagse : Abandon du RAID Sécurisation des donnée par "Erasure Code” ou duplication Meilleurs performances Augmentation de la densité (plus de serveurs dédié), baisse de la consommation Desy : Embarque un pool dCache dans directement dans le disque (Western Digital HGST Open Ethernet): https://indico.cern.ch/event/346931/session/4/contribution/6 1 CERN : Test Disques Seagate Kinetics dans CEPH : http://indico.cern.ch/event/304944/session/3/contribution/29 7 Assemblée générale 2011 20/11/2011

MPTF "Mean PB To Failure" : Etude de BNL qui met en évidence le taux de panne des HDD des workers node en fonction de l'activité et du profil d'I/O Remplacer le MTBF (temps moyen entre 2 pannes) par le nombre de TB lu ou écrit avant un panne. http://indico.cern.ch/event/304944/session/3/contribution/2 Assemblée générale 2011 20/11/2011

Data popularity et machine learning Optimisation des accès aux données Data popularity LHCb Soft de prédiction des datasets qui ne seront plus utilisés. Possibilite d'un gain de 40% sur le disque et 30% en transferts reseau. http://indico.cern.ch/event/304944/session/3/contribution/303 Data popularity et machine learning CMS cherche à prédire la popularité des données avant qu'elles ne soient disponibles. http://indico.cern.ch/event/304944/session/5/contribution/335/ Assemblée générale 2011 20/11/2011

Data Preservation @ DESY Préservation des données Data Preservation @ DESY Arrêt de l’experience HERA en 2017 preservation with dCache definition : archiving = bit preservation + documentation + software https://indico.cern.ch/event/304944/session/3/contribution/228 Data Preservation a Fermilab Arret du Tevatron (D0 et CDF) fin 2011 Objectif : Garder l'infrastructure d'analyse opérationnelle jusqu'en 2020 Données (10PB) + Métadonnées (DB Oracle pour la calibration) Arret des cluster physique, utilisation de la grille et de VM Migration des code sur SL6/64 bits, CVMFS Environnement de soumission de job (SamGrid,…) Documentation : + 16000 doc depuis 1978 http://indico.cern.ch/event/304944/session/5/contribution/11 Assemblée générale 2011 20/11/2011

Divers EOS au CERN : Tape @ BNL Tape @ CERN EOS : 140 PB déployé et en production Fonctionnalité d’archivage avec CASTOR Utilisé comme backend pour CERNBOX http://indico.cern.ch/event/304944/session/3/contribution/296 Tape @ BNL Il assurent un tape write speed >= data flow. Pour cela, ils s'assurent que le tuyau est systematiquement plus petit que le debit que peuvent recevoir les drives. Augmentation capacite des bandes → plus gros risque de perte importante de donnees. Besoin de backup dans certains cas (?) https://indico.cern.ch/event/304944/session/3/contribution/259 Tape @ CERN 100 PB pour 100 drives T10K-D sur castor + 50 drives T10K-C TSM. Incident sur des bande dues à de la poussières  Fabrication d’un détecteur pour mesurer la densité de poussière (basé sur un RPi) technologie: +30%/year d'augmentation de capacite a cout constant La vitesse de lecture sur les drives augmente aussi, mais pas aussi vite que la capacite des cartouches.  il faut donc augmenter le nombre de drives plus vite que la capacite. https://indico.cern.ch/event/304944/session/3/contribution/59 Assemblée générale 2011 20/11/2011