Journée Analyse D0, 19 janvier 2004

Slides:



Advertisements
Présentations similaires
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
Advertisements

Calcul pour le spatial & le CC-IN2P3 Jean-Yves Nief (CC-IN2P3)
8 avril 2005Comité lcg France1 Comité LCG France du 8 avril 2005 Philippe GAILLARDON Équipe stockage URL Marchés de stockage.
Le projet MUST Méso infrastructure de calcul et de stockage ouverte sur la grille européenne LCG/EGEE Colloque Grille Rhône-Alpes 10 janvier 2008.
Fabio HERNANDEZ Responsable Grid Computing Centre de Calcul de l'IN2P3 - Lyon Lyon, 30 avril 2004 Déploiement LCG-2 au CC-IN2P3 Etat d’avancement.
Outil Système Complet d'Assistance Réseau CRDP de l'académie de Lyon Documentation librement inspirée de la présentation.
Composants Matériels de l'Ordinateur Plan du cours : Ordinateurs et applications Types d'ordinateurs Représentation binaires des données Composants et.
Projet tuteuré 2009 Les clients légers Alexandre Cédric Joël Benjamin.
Cloud computing Présenté par Robert Ogryzek, Teddy Frontin, Kevin Lambert et Matthew Cronne.
PILOTER VOTRE INFRASTRUCTURE VIRTUALISEE AVEC PYTHON ( UN RETOUR D’EXPÉRIENCE EN ENVIRONNEMENT VMWARE ET IRONPYTHON) Jean-marc Pouchoulon PYCON FR 2009.
Le système Raid 5 Table des matières Qu'est ce que le RAID ? Les objectifs Le raid 5 Les avantages et les inconvénients Les composants d’un Raid.
INFSO-RI Enabling Grids for E-sciencE L’activité EGEE au CINES Nicole Audiffren, Adeline Eynard et Gérard Gil Réunion de la fédération.
Xen et l' Art de la Virtualization Antoine Nivard Responsable technique Adéquat région Ouest Responsable de Site francophone de XEN Computer.
CASTOR est, au CERN, le système de stockage des gros fichiers de données de physique (>1 GB). Ce tutorial s’adresse aux utilisateurs LXPLUS (tout utilisateur.
1 Identifier les composants d’un réseau local. 2 Les composants d’un réseau Des ordinateurs, appelés stations... …munis d’une carte réseau leur permettant.
ATEMPO Live Navigator. Présentation → Besoin d'un outil de sauvegarde facile à déployer et indépendant du système ( Linux / Mac OS X et Windows ) → qui.
L’intérêt de sauvegarder certaines données stockées localement sur les postes clients est souvent trop sous-estimée par nos utilisateurs. Casse matérielle,
Module 13 : Implémentation de la protection contre les sinistres.
Architecture des ordinateurs, Environnement Numérique de Travail
Communication client-serveur
Journées trimestrielles du 30 mars 1999
Mise en place d’un système de partage de fichiers
Outil Système Complet d'Assistance Réseau
e-Prelude.com Analyse globale du flux
Ce videoclip produit par l’Ecole Polytechnique Fédérale de Lausanne
Power BI Premium : pour quels usages ?
LAN Médias cch_ccnp.
Quels outils collaboratifs pour mon association ?
Utilisation de PostgreSQL
Séminaire EOLE Dijon Septembre 2008
Marchés Exterieurs Des Industries Agroalimentaires
Devenir d’AFS et remplacement progressif
AugerDb / SimDb Gestion des simulations Auger Java
Les Tests de performances
Poste client et nfs/samba
Réunion Analyse D0 France au CCIN2P3 19 janvier 2004
Outils Statistiques pour la Sémantique Décembre 2013
Introduction Atelier sur: Création d’un réseaux local?
12 mars 2004, Lyon Reunion CAF F.Chollet 1
Fonctionnement de la grille
Summer : Stockage capacitif mutualisé de UGA
Module 5 : Gestion des disques.
Daniel JOUVENOT Laboratoire de l’Accélérateur Linéaire (LAL–ORSAY)
Journée pédagogique 16 septembre 2014
2018/8/9 CLAP Cluster de virtualisation et de stockage distribué du LAPP Mardi 26 avril 2016 Entrez votre nom.
CeMEB La plateforme MBB
CeMEB La plateforme MBB
Présentation du Service Informatique
CREAM-CE et SGE.
TreqS TReqS 1.0.
Statistiques de Décembre 2017
Informatique générale
Architecture des ordinateurs
Journées Informatiques 2016 – Le Lioran Sylvain Reynaud
Missions Locales Serveur Mutualisé
Un cloud de production et de stockage
ATELIER DE MAINTENANCE ET DE REPARATION DES EQUIPEMENTS INFORMATIQUE SURTAB ACADEMIE – JANVIER 2019 Jean Rony Fultidor Durée : 4 heures.
Les machines et espaces disques du TGCC en une figure
Architecture d’un ordinateur
Présentation des services IT
LIVE MIGRATION Windows Server 2012 & Hyper-V3
CONFIGURATION D’UN ROUTEUR Introduction et planification du cours  Configuration d’un routeur  Administration d’un routeur  Protocoles RIP et IGRP 
LUSTRE Integration to SRM
Test de performances. Test de performances:  Un test de performance est un test dont l'objectif est de déterminer la performance d'un système informatique.
Le réseau explications
Internet Stage – Semaine 5.
CEA DSM Dapnia SIS Journée « Electronique » du Dapnia / Réseaux de terrain / Jean Belorgey10 novembre Réseaux de terrain Réseau WorldFIP Serveur.
Transcription de la présentation:

Journée Analyse D0, 19 janvier 2004 Stockage à l’IN2P3 Journée Analyse D0, 19 janvier 2004 Philippe GAILLARDON Équipe stockage URL http://www.in2p3.fr/CC 19 janvier 2004 D0 stockage

Type d’espaces distribués AFS Conçu pour environnement distribué Xtage Gestion des volumes magnétiques par l’utilisateur Évolution: nouveaux dérouleurs, fichiers 2 GO HPSS Données d’expérience et d’utilisateurs Orienté gros fichier et temps de traitement long Semi-Permanent Couvre des besoins non couverts par AFS et HPSS 19 janvier 2004 Stockage à l’IN2P3

AFS Types d’espace Limitations Évolution AFS HOME AFS THRONG Sauvegardé et un volume AFS GROUP Correspond à des données permanentes ou non Limitations Performances dès que les données deviennent volumineuses Taille des partitions à 8 GO Évolution OPEN AFS et KERBEROS 5 Nouveaux serveurs 19 janvier 2004 Stockage à l’IN2P3

HPSS Espace hiérarchique accédé par nom de fichiers Volume non limité par la technologie disque actuelle Qualité de service par Classe de Service (COS) Affectation de ressources Performances COS 0 en standard (utilisateurs et expériences) COS spécifiques pour certaines expériences 19 janvier 2004 Stockage à l’IN2P3

Accès HPSS RFIO GRID Serveurs spécifiques Le mode privilégié est la recopie en local par rfcp. Il faut gérer ses fichiers dans une base de données GRID Interfaçage du SE en mode basique Le module de connexion doit être adapté Serveurs spécifiques SAM (D0) pour la gestion du catalogue SRB (utilise l’API HPSS) 19 janvier 2004 Stockage à l’IN2P3

HPSS Statistiques 400 TO dans HPSS Débit cumulé moyen Doublement chaque année Débit cumulé moyen Juin 2003: 151 TO, 58 MO/sec Journée pic: 10,4 TO, 120 MO/s Utilisation très variée selon les expériences Publication: http://doc.in2p3.fr/hpss/ 19 janvier 2004 Stockage à l’IN2P3

Volume transféré par jour Total de l'ensemble des serveurs:                                                                                                                                                                                                      Statistiques annuelles sur le volume transféré pour les différents serveurs HPSS. Ces statistiques sont cumulées par jours (24 h). Elles ont 1 jour de retard. En bleu: volume transféré en lecture. En vert: volume transféré total. 19 janvier 2004 Stockage à l’IN2P3

HPSS – Matériel État actuel En cours 1 serveur central 6 serveurs disques (dont 3 serveurs RFIO) 11 TO disques 19 serveurs bande (dont 1 serveur RFIO pour Babar) 28 dérouleurs 9840 20 dérouleurs 9940B (200 GO) Réseau Gigabit En cours 2 serveurs disques et 3,6 TO disque Changement du serveur central Essais double Gigabit 19 janvier 2004 Stockage à l’IN2P3

Ethernet Switch (Cisco 6509) Architecture 9840 Mover 1 Core Server 9940 Mover 32 6 Movers RFIOD 2 TO Ethernet Switch (Cisco 6509) rfio client … Mover 2 Méta-données Réseau contrôle Réseau données 19 janvier 2004 Stockage à l’IN2P3

D0 HPSS – Ressources allouées Ressources physiques dédiées D0 via COS 21 et 22 2 serveurs disques dont un serveur RFIO 4 TO 2 serveurs disques sont en attente de disque Volumétrie COS 10 45178 files 898182 MB < 19 MB/file> COS 11 13692 files 1899088 MB < 138 MB/file> COS 12 1009 files 1121295 MB < 1111 MB/file> -------------------------------------------------------- COS 0 58879 files 3918565 MB COS 21 73214 files 5138260 MB < 70 MB/file> COS 22 142964 files 57986504 MB < 405 MB/file> 19 janvier 2004 Stockage à l’IN2P3

D0 HPSS Utilisation Interfaces spécifiques avec SAM COS 21 et 22 Transferts par BBFTP Bandes COS 22 en 9940B (200 GO) 3000 bandes  300 (55 € / bande) Assignation des disques Utilisation actuelle permet plus de 2 TO par serveur Marché 2003 (30 TO à 10 € / GO) non encore réalisé Remarques sur l’utilisation de HPSS Petits fichiers Quelques COS non prévus (3 et 4) 19 janvier 2004 Stockage à l’IN2P3

HPSS: Évolution Matériel Passage HPSS 5.1 Utilisation API HPSS Affectation de ressources (COS) à plus d’expériences Passage HPSS 5.1 Suppression de logiciels spécifiques (Encina, SFS, SAMI) Utilisation base de données SQL (DB2) Performances 10 fois supérieures en transactions Utilisation de Java Utilisation API HPSS Serveur SRB Fonctions spéciales (purge cache disque) Nécessité de passer en KERBEROS 5 pour généraliser 19 janvier 2004 Stockage à l’IN2P3

Espace de stockage semi-permanent Caractéristiques Stockage temporaire de données de petite taille (<100MO) Accès courts et aléatoires à un ensemble de fichiers Accès transparent aux données (interactif et batch) Stockage permanent ailleurs (HPSS) 19 janvier 2004 Stockage à l’IN2P3

Service d’espace semi-permanent: état actuel 10 expériences: SNOVAE, AUGER, BaBar, biométrie 7 TO alloués, 5 serveurs de disque Accès via NFS, RFIO Gestion de l’espace faite par l’expérience Évolutions Étude de solutions plus globales Achat de nouveaux serveurs avant fin 2004 19 janvier 2004 Stockage à l’IN2P3

Semi-perm: évolution de l’espace 19 janvier 2004 Stockage à l’IN2P3

Semi-perm: nombre de fichiers 19 janvier 2004 Stockage à l’IN2P3

Sauvegarde - Archivage: TSM Tivoli System Manager (TSM) Commercialisé par IBM 2 serveurs Sauvegarde AFS Home et Throng Machines de bureau et serveurs du centre Service centraux, données uniques d’expériences, GDT, laboratoires Archivage par Elliot Non supporté sous LINUX Local hors centre de calcul pour double copie Données uniques d’expériences, services centraux 19 janvier 2004 Stockage à l’IN2P3

Transferts réseaux BBFTP GRID HPSS Support fichiers 2 GO Transferts simultanés du même fichier GRID HPSS Annoncé pour 2003 19 janvier 2004 Stockage à l’IN2P3