La présentation est en train de télécharger. S'il vous plaît, attendez

La présentation est en train de télécharger. S'il vous plaît, attendez

Journée Analyse D0, 19 janvier 2004

Présentations similaires


Présentation au sujet: "Journée Analyse D0, 19 janvier 2004"— Transcription de la présentation:

1 Journée Analyse D0, 19 janvier 2004
Stockage à l’IN2P3 Journée Analyse D0, 19 janvier 2004 Philippe GAILLARDON Équipe stockage URL 19 janvier 2004 D0 stockage

2 Type d’espaces distribués
AFS Conçu pour environnement distribué Xtage Gestion des volumes magnétiques par l’utilisateur Évolution: nouveaux dérouleurs, fichiers 2 GO HPSS Données d’expérience et d’utilisateurs Orienté gros fichier et temps de traitement long Semi-Permanent Couvre des besoins non couverts par AFS et HPSS 19 janvier 2004 Stockage à l’IN2P3

3 AFS Types d’espace Limitations Évolution AFS HOME AFS THRONG
Sauvegardé et un volume AFS GROUP Correspond à des données permanentes ou non Limitations Performances dès que les données deviennent volumineuses Taille des partitions à 8 GO Évolution OPEN AFS et KERBEROS 5 Nouveaux serveurs 19 janvier 2004 Stockage à l’IN2P3

4 HPSS Espace hiérarchique accédé par nom de fichiers
Volume non limité par la technologie disque actuelle Qualité de service par Classe de Service (COS) Affectation de ressources Performances COS 0 en standard (utilisateurs et expériences) COS spécifiques pour certaines expériences 19 janvier 2004 Stockage à l’IN2P3

5 Accès HPSS RFIO GRID Serveurs spécifiques
Le mode privilégié est la recopie en local par rfcp. Il faut gérer ses fichiers dans une base de données GRID Interfaçage du SE en mode basique Le module de connexion doit être adapté Serveurs spécifiques SAM (D0) pour la gestion du catalogue SRB (utilise l’API HPSS) 19 janvier 2004 Stockage à l’IN2P3

6 HPSS Statistiques 400 TO dans HPSS Débit cumulé moyen
Doublement chaque année Débit cumulé moyen Juin 2003: 151 TO, 58 MO/sec Journée pic: 10,4 TO, 120 MO/s Utilisation très variée selon les expériences Publication: 19 janvier 2004 Stockage à l’IN2P3

7 Volume transféré par jour
Total de l'ensemble des serveurs:                                                                                                                                                                                                      Statistiques annuelles sur le volume transféré pour les différents serveurs HPSS. Ces statistiques sont cumulées par jours (24 h). Elles ont 1 jour de retard. En bleu: volume transféré en lecture. En vert: volume transféré total. 19 janvier 2004 Stockage à l’IN2P3

8

9

10 HPSS – Matériel État actuel En cours 1 serveur central
6 serveurs disques (dont 3 serveurs RFIO) 11 TO disques 19 serveurs bande (dont 1 serveur RFIO pour Babar) 28 dérouleurs 9840 20 dérouleurs 9940B (200 GO) Réseau Gigabit En cours 2 serveurs disques et 3,6 TO disque Changement du serveur central Essais double Gigabit 19 janvier 2004 Stockage à l’IN2P3

11 Ethernet Switch (Cisco 6509)
Architecture 9840 Mover 1 Core Server 9940 Mover 32 6 Movers RFIOD 2 TO Ethernet Switch (Cisco 6509) rfio client Mover 2 Méta-données Réseau contrôle Réseau données 19 janvier 2004 Stockage à l’IN2P3

12 D0 HPSS – Ressources allouées
Ressources physiques dédiées D0 via COS 21 et 22 2 serveurs disques dont un serveur RFIO 4 TO 2 serveurs disques sont en attente de disque Volumétrie COS files MB < MB/file> COS files MB < MB/file> COS files MB < MB/file> COS files MB COS files MB < MB/file> COS files MB < MB/file> 19 janvier 2004 Stockage à l’IN2P3

13 D0 HPSS Utilisation Interfaces spécifiques avec SAM
COS 21 et 22 Transferts par BBFTP Bandes COS 22 en 9940B (200 GO) 3000 bandes  300 (55 € / bande) Assignation des disques Utilisation actuelle permet plus de 2 TO par serveur Marché 2003 (30 TO à 10 € / GO) non encore réalisé Remarques sur l’utilisation de HPSS Petits fichiers Quelques COS non prévus (3 et 4) 19 janvier 2004 Stockage à l’IN2P3

14 HPSS: Évolution Matériel Passage HPSS 5.1 Utilisation API HPSS
Affectation de ressources (COS) à plus d’expériences Passage HPSS 5.1 Suppression de logiciels spécifiques (Encina, SFS, SAMI) Utilisation base de données SQL (DB2) Performances 10 fois supérieures en transactions Utilisation de Java Utilisation API HPSS Serveur SRB Fonctions spéciales (purge cache disque) Nécessité de passer en KERBEROS 5 pour généraliser 19 janvier 2004 Stockage à l’IN2P3

15 Espace de stockage semi-permanent
Caractéristiques Stockage temporaire de données de petite taille (<100MO) Accès courts et aléatoires à un ensemble de fichiers Accès transparent aux données (interactif et batch) Stockage permanent ailleurs (HPSS) 19 janvier 2004 Stockage à l’IN2P3

16 Service d’espace semi-permanent: état actuel
10 expériences: SNOVAE, AUGER, BaBar, biométrie 7 TO alloués, 5 serveurs de disque Accès via NFS, RFIO Gestion de l’espace faite par l’expérience Évolutions Étude de solutions plus globales Achat de nouveaux serveurs avant fin 2004 19 janvier 2004 Stockage à l’IN2P3

17 Semi-perm: évolution de l’espace
19 janvier 2004 Stockage à l’IN2P3

18 Semi-perm: nombre de fichiers
19 janvier 2004 Stockage à l’IN2P3

19 Sauvegarde - Archivage: TSM
Tivoli System Manager (TSM) Commercialisé par IBM 2 serveurs Sauvegarde AFS Home et Throng Machines de bureau et serveurs du centre Service centraux, données uniques d’expériences, GDT, laboratoires Archivage par Elliot Non supporté sous LINUX Local hors centre de calcul pour double copie Données uniques d’expériences, services centraux 19 janvier 2004 Stockage à l’IN2P3

20 Transferts réseaux BBFTP GRID HPSS Support fichiers 2 GO
Transferts simultanés du même fichier GRID HPSS Annoncé pour 2003 19 janvier 2004 Stockage à l’IN2P3


Télécharger ppt "Journée Analyse D0, 19 janvier 2004"

Présentations similaires


Annonces Google