20 mars 2006J-P Meyer1 Le Projet GRIF (Grille de Recherche d’Île de France)  La Grille de Calcul: Qu’est ce que c’est?  Histoire de la Grille: Morceaux.

Slides:



Advertisements
Présentations similaires
Projet de Virtualisation dans le cadre d’un PCA/PRA
Advertisements

Avec le soutien de lUnion Européenne (FEDER) Programme Régional dActions Innovatrices– Colloque Biopuces et écologie microbienne – octobre 2006 Avec.
LCG DATAGRID - France 8 Juillet 2002 LCG : LHC Grid computing - qui, quoi, quand, comment ? Quoi ? But : préparer l'infrastructure informatique des 4 expériences.
Grille Régionale Rhône-Alpes Institut des Grilles du CNRS Yonny CARDENAS CC-IN2P3 Réunion du groupe de travail grilles Projet CIRA Grenoble, le 2 Juin.
Présentation préparée avec C. Germain, B. Kegl et M. Jouvin.
MRP, MRP II, ERP : Finalités et particularités de chacun.
FORUM TERRITOIRES ET TIC 21 avril 2008
30 mars 2006Ph. BUSSON LLR Ecole polytechnique, Palaiseau 1 GRIF-Tier2 Î le de France Bas é sur une pr é sentation de J-P MEYER (CEA/Dapnia)
1 CDF sur Tevatron au Fermilab, USA LExpérience CDF et La Physique des Collisionneurs à Hadron Uni. Genève participe à 2 expériences sur les collisionneurs.
ATLAS Data Challenges. Les Data Challenges (DC) en français Challenges des Données ont pour but de Valider: –le modèle dorganisation et dutilisation des.
L’expérience ATLAS au LHC
Etude des performances du calorimètre électromagnétique d’Atlas
1 Grille de calcul et physique des particules Vincent Garonne CPPM, Marseille Novembre 2003 Contenu de la présentation Etat de lart : Grille de calcul.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks VO Fusion Pierrick Micout, CEA - DAPNIA.
R. Torres Etude du top dans l'experience ATLAS 1.
France Grilles: plan stratégique version du 15 Novembre 2012.
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
Plate-forme MIRAGE Méso-Informatique Répartie pour des Applications en Géophysique et Environnement.
Centre de Calcul de l'IN2P3 - Lyon Toulouse - Lyon, 21 décembre 2004 Les projets de grille au Centre de Calcul de l’IN2P3.
EGEE is a project funded by the European Union under contract IST Noeud de Grille au CPPM.
The ATLAS Detector at the Large Hadron Collider at CERN
CAPRI 9 juin 2011 Cloud Académique Production Recherche Innovation Comité de Pilotage France-Grilles.
Proposition Organisation Direction Technique C. de La Taille.
Calcul CMS: bilan 2008 C. Charlot / LLR LCG-DIR mars 2009.
1 Little Higgs - JJC 2003 Test du Modèle du Little Higgs dans ATLAS Matthieu LECHOWSKI Journées Jeunes Chercheurs 2003 Journées Jeunes Chercheurs 2003.
CMS ATLAS LHCb CERN Tier 0 Centre at CERN National Centres Lab a Russia Lab c Uni n Lab b Manno Canada Uni y Uni x Tier3 physics department  Ge  Germany.
Résumé CHEP 2010 Distributed processing and analysis Grid and cloud middleware Thèmes : 1.
Réunion calcul simulations GIEC/IPCC - Prodiguer Lundi 23 Mars PRODIGUER un noeud français de distribution des données GIEC/IPCC Sébastien Denvil.
Le noeud de grille Tier 3 LAPP.
1 Deux exemples de management (et d’organisation) de la recherche : le CNRS et l’INRIA Club EEA, Tours, 13 mai 2009.
CS IN2P3 – Lundi 8 décembre 2003Bruno Espagnon – IPN Orsay Le Bras Dimuon d'ALICE Résolution de 70 MeV pour le J/  et 100 MeV pour le  (soit 1%) Etude.
EGEE-II INFSO-RI Enabling Grids for E-sciencE EGEE and gLite are registered trademarks Transition vers EGEE-III (et EGI?) Pierre.
Comité scientifique GRIF, 19/01/ LPNHE Paris Projet GRIF au LPNHE Paris Le 2 février prochain il y aura une revue de projet au LPNHE. Le projet GRIF.
Le Tier2 de Subatech Logiciel : Jean-Michel Barbet
M.D. 11-mai-2004Journées CMS-France Le système de monitorage de CMS-ECAL  Programme : Motivations Solutions techniques retenues Installation sur.
19 janvier 2006J-P Meyer1 Revue du projet GRIF  Les enjeux scientifiques (J-P Meyer)  Le calcul au LHC  Les Projet EGEE et LCG  Le projet GRIF  La.
19 septembre 2005J-P MEYER et M. JOUVIN Démonstrateur de fédération de nœuds de grille EGEE-LCG en région Île de France Projet 1/2 Le contexte:  Préparation.
Création et détection des particules : LHC et CMS
Recapitulatif des sujets abordés Frédérique Chollet Fabio Hernandez Fairouz Malek Réunion LCG-France Tier-2s & Tier-3s Paris, 20 mars 2008.
Des données numériques aux résultats de physique ATLAS offline reconstruction de données CERN ATLAS groupe ATC.
Les fermes de PCs au Centre de Calcul de l’IN2P3 Journée « ferme de PCs » 27 juin 2000 Benoit Delaunay
Frédéric Hemmer, CERN, Département ITLa Grille de Calcul du LHC – septembre 2007 La Grille de Calcul du LHC Frédéric Hemmer Adjoint au Chef du Département.
Des origines de la structure de l’Univers aux Technologies de l’Innovation Yannis Karyotakis Lab d’Annecy le Vieux de Physique des particules.
Le programme scientifique du CERN Un voyage à travers les accélérateurs du CERN PH Department.
Présentation de la CESPI & Evolutions possibles du réseau « Mécanique IN2P3 » P. Lavocat Responsable CESPI-IN2P3 Journée Mécanique IN2P3 15 Novembre 2004-
Calcul et Grille CMS ou comment on extrait les aiguilles de la botte de foin Conseil scientifique LLR 14/10/2010 C. Charlot.
29 mars 2006J-P Meyer1 Evaluation des besoins en infrastructures et réseau  Evaluation des besoins en infrastructures  Evaluation des besoins réseau.
LA GRILLE REGIONALE AUVERGRID. Idée de départ IUT Moulins CIRI Clermont-Fd IUT Aurillac IUT Le Puy CIRI IUT Montluçon LPC IUT Vichy OPGC CEMAGREF.
GRIF Status Michel Jouvin LAL/Orsay
Hébergement d’une infrastructure de Cloud Expérience d’un laboratoire Guillaume Philippon.
DE LA COLLISION A LA PUBLICATION. CE QUI S'EST PASSE.
Dominique Boutigny Une infrastructure informatique au service des chercheurs et des industriels rhônalpins Journée de lancement de l’initiative TIDRA Traitement.
Bilan 2012, perspectives 2013 Conseil de Groupement – 21/2/2013 V. Breton La grandeur des actions humaines se mesure à l’inspiration qui les fait naître.
BABAR Georges Vasseur CEA Saclay, DSM/IRFU/SPP Workshop sur l’analyse des données au centre de calcul de Lyon 17 avril 2008.
04/06/20151J-P Meyer GRIF-10ans déjà! ( )
Pr é sentation du stage effectu é au LPNHE du 28 Mai au 29 Juin 2007 Participation à l'étude du quark top dans l'expérience ATLAS située sur le collisionneur.
LCG-France Edith Knoops CPPM. Le LHC LEP LHC > 95% UNKNOWN STUFF OUT THERE > 95% UNKNOWN STUFF OUT THERE Black hole 3.
Grid au LAL Michel Jouvin LAL / IN2P3
Biennale du LPNHE 2011, 20/09/ Le projet GRIF-UPMC : évolution et utilisation Liliana Martin Victor Mendoza Frédéric Derue
6-7 Octobre 2008J-P MEYER1 Conclusions du groupe de travail thématique 7 Physique subatomique: - physique des particules, - physique nucléaire, - astroparticules.
Projet LCG: Vue d’Ensemble Fabio Hernandez Responsable Technique LCG-France Centre de Calcul de l’IN2P3 Rencontre IN2P3/STIC Grenoble, 25.
1er septembre 2005J-P Meyer1 Statut du projet GRIF (Grille de Recherche d’Île de France) Rappel du projet But: Mettre en place une ressource d’analyse.
Présentation au conseil scientifique. Une e-infrastructure dédiée au traitement des données Infrastructure distribuée, par les utilisateurs, pour les.
Détection de nouvelles particules massives via l’utilisation des traces, de l’énergie transverse manquante et des jets dans le détecteur CMS Loïc Quertenmont.
 Lois et constituants de l'Univers 1. Astroparticules, astrophysique nucléaire, cosmologie 2. Physique hadronique et nucléaire 3. Physique des particules.
Centre de Calcul de l’Institut National de Physique Nucléaire et de Physique des Particules Table Ronde : Quelles orientations pour le CC ? JP2015, Autrans.
F. DERUE, Réunion des sites LCG France, LPNHE, 20 mars Historique et but 2. Projet scientifique 3. Projet technique 4. Suivi des productions.
Stratégie technique G. Mathieu – V. Breton. Stratégie vers les fournisseurs de services et de ressources France Grilles2 Jouer le rôle central dans le.
Statut du T2 Île de France
Le Projet GRIF Efficient Handling and processing of
Transcription de la présentation:

20 mars 2006J-P Meyer1 Le Projet GRIF (Grille de Recherche d’Île de France)  La Grille de Calcul: Qu’est ce que c’est?  Histoire de la Grille: Morceaux choisis  Les projets EGEE et EGEE2  Le projet LCG  Le projet GRIF  Description et partenaires  Etat actuel du projet  Les aspects financiers  Conclusions

20 mars 2006J-P Meyer2  La Grille de Calcul: Qu’est ce que c’est? Exploiter la puissance ou les ressources de stockage non utilisées des PC en réseau. Globalisation des ressources informatiques et des données. Objectif " de rendre l'accès aux ressources informatiques aussi transparent que l'électricité " Le rêve d'un ordinateur toujours plus puissant pourrait bien devenir obsolète. En mutualisant les ressources, on peut aller plus vite, plus loin, pour moins cher. On tape: « Grille de calcul » sur Les technologies de grilles de calcul (Grid computing) permettent d'optimiser l'utilisation de l'équipement informatique

20 mars 2006J-P Meyer3 En résumé: Le principe consiste à interconnecter des ressources de calcul et de stockage par un réseau puissant et de cacher la complexité et du système par une couche logicielle appelée « intergiciel » (middleware). Les ressources sont: Partagées: mise à disposition de différentes communautés  synergie, économie, interdisciplinarité,… Distribuées: situées dans les laboratoires, universités et chez les industries, les particuliers Hétérogènes: Toutes sortes d’ordinateurs et de configurations Coordonnées: Par les intergiciels et mise en relation par les réseaux. Externalisées: Accessible à la demande  énorme ordinateur virtuel accessible même à des petits groupes de chercheurs. Concepts et vertus de base

20 mars 2006J-P Meyer4  Histoire de la Grille: Morceaux choisis Un des précurseurs (96): Un logiciel utilisé en écran de veille pour rechercher une émission captée par un grand radio télescope en provenance d’une Intelligence Extra-Terrestre. Sur le même principe de nouveaux projets sont lancés comme par exemple: Utilisation des pc pendant les pauses et la nuit pour exécuter des tâches généralement courtes et faisant peu d’entrée-sortie.

20 mars 2006J-P Meyer5 Pour les applications plus lourdes en calcul et traitement de masses de données. Dans le monde LINUX  MONARC (1999) suivit en 2001 par DataGrid (CEE). Suivit par projet EGEE en avril 2004-mars 2006 et financé par la communauté européenne. En mai 2006 EGEE2 va prendre le relais pour finir le développement des intergiciels et aboutir à une grille pleinement opérationnelle. Se pose alors la question de la pérennisation de la grille en Europe  projet EGO au CERN (2007) Les projets Européens

20 mars 2006J-P Meyer6 Le projet EGEE (Enabling Grid for E-sciencE)  70 participants financés par l’Europe  30 participants qui ne sont pas financés  la grille mise en place par EGEE s’appuie sur le réseau GEANT  But:  Fournir une infrastructure de grille de calcul pour les applications scientifiques qui peuvent en avoir besoin  Garantir le développement et la maintenance des intergiciels (middleware) permettant l’accès et l’utilisation des ressources de cette grille  Diffuser les informations nécessaires pour solliciter d’autres intervenants à l’infrastructure de grille (soit des centres de calcul soit des utilisateurs)  Fourni du personnel pour développer et coordonner le fonctionnement de la Grille en Europe. (1/1 EGEE; 2/1 EGEE2)  Ne fourni pas d’infrastructure (matériel).

20 mars 2006J-P Meyer7 Les Réseaux utilisés par EGEE GEANT (réseau Européen)RENATER (partie Fr)

20 mars 2006J-P Meyer8 Les applications supportées par EGEE (1/2) Les applications biomédicales: plus de 50 utilisateurs dans 18 laboratoires de 7 pays avec 12 applications différentes. (ex: recherche de nouvelles molécules) Domaine Pilote Ressources: CPU - 21 TB de disque Les sciences de la terre: - Observations de la terre - Climat - Hydrologie (ex: tsunami) - Géophysique  applications industrielles Month Number of jobs

20 mars 2006J-P Meyer9 Astronomie: - fond diffus cosmologique - astronomie des rayons gamma Economie: - simulations numériques de marché Physique des particules: - les expériences LHC:  ATLAS,CMS ALICE,LHCb - les expériences en Allemagne  H1,Zeus - les expériences aux USA  D0, CDF, Babar Domaine pilote Une Grille dédiée: LHC Computing Grid (LCG) Les applications supportées par EGEE (2/2)

20 mars 2006J-P Meyer10 Le projet EGEE2 (Enabling Grid for E-sciencE) Continuation naturelle de EGEE (1 avril 2006) buts principaux: - étendre l’usage de la grille à tous les domaines scientifiques - créer d’avantage de partenariats recherche-industrie - augmenter la couverture géographique de la grille  au-delà de l’Europe tout en gardant le leadership

20 mars 2006J-P Meyer11 Le projet LCG (LHC Computing Grid)  Le LHC: qu’est ce que c’est?  Le traitement des données au LHC  La Hiérarchie des centres LCG

20 mars 2006J-P Meyer12 Le LHC (Large Hadron Collider)  Le LHC (Large Hadron Collider) - Collisionneur proton–proton et ion-ion - 27 km de circonférence - Aimants supraconducteurs 8.3T - Énergie des protons 7 TeV -> √s = 14 TeV paquets de protons/faisceau - 25 ns entre deux paquets (40 MHz) - taille transverse des faisceaux ~ 1  m  10 9 collisions/s - Luminosité nominale cm -2 s -1 (pp)  10 9 collisions/s 2007  démarrage à 10 7 collisions/s 2008 à collisions/s  basse luminosité 2010 à collisions/s  haute luminosité

20 mars 2006J-P Meyer13 Les données du LHC Longueur : ~ 46 m Diamètre : ~ 25 m Poids : ~ 7000 tonnes Coût : ~ 340 M€ / 10 ans Détecteur central: Traces chargées 1.4x10 8 voies Détecteur: Calorimètres: Énergie des particules 2x10 5 voies Spectromètre à muon: Impulsion des muons 7x10 5 voies Suppression de zéro en ligne  ~2 Mo/événement 10 8 à 10 9 collisions/s  sélection en ligne  100 Hz 1500 Physiciens

20 mars 2006J-P Meyer14 Génération Simulation des événements Simulation des événements Géométrie de Simulation Géométrie de Simulation Géométrie de Reconstruction Géométrie de Reconstruction Description détecteur Alignement détecteur Calibration détecteur Paramètres Reconstruction Reconst. des événements Reconst. des événements ESD AOD Analyse Physique données brutes Détecteur 2 Mo 500 ko 100 ko 3.5 Mo Le traitement des données au LHC (1/2)

20 mars 2006J-P Meyer15 Le traitement des données au LHC (2/2)  Chaque événement est indépendant des autres  Puissance de calcul  pc x an (P4 3GHz, 2 Go ram)  Capacité de stockage pour les expériences LHC  20 PetaByte/ans sur bande magnétique (pérennité)  1 PetaByte/ans sur disque pour l’analyse  Possibilité d'accéder aux données depuis tous les instituts  production des données Monte-Carlo nécessaires à la compréhension des résultats d’analyse (30mns/événement)

20 mars 2006J-P Meyer16 Hiérarchie des centres (nœuds) de la grille LCG Le Tier0 (CERN): la réception des données brutes et 1ère reconstruction Distribution des données brutes vers les centres Tier1 Études des calibrations et des alignements Les Tier1 (partout sur la planète -> centres nationaux): reçoivent chacun une fraction des données brutes (stockage) reconstruction et re-reconstruction (alignements, calibrations) mise à disposition des données résumées centres d’analyse (Tier2) En France Centre de Calcul de Lyon (4 expériences) (80% IN2P3+20%DAPNIA) Les Tier2 (partout sur la planète -> près/dans les labos): analyse des données  production des ROOTup finaux production Monté-Carlo  retour des sorties vers les Tier1  projet GRIF 10 Gbits/s 1 Gbits/s

20 mars 2006J-P Meyer17 Etat actuel de LCG LCG Publicity map built daily.

20 mars 2006J-P Meyer18 LCG: En Europe et en France T2: GRIF T2: SUBATECH T2: AUVERGRID T3: CPPM T1: CC LYON T3: LAP Globalement la France est sensiblement en retard!

20 mars 2006J-P Meyer19  Le projet GRIF (Grille de Recherche d’Île de France) Buts: - Mettre en place une ressource d’analyse et de simulation en région Île de France. 80% LCG  (Tier2) + 20% EGEE et Local - Favoriser l’acquisition et la pérennisation du savoir faire d’une grille de production pour l’ensembles des communautés scientifiques de la région (BioMed, ESR, EGEODE,…) - Attirer de nouveaux partenaires de la région:  laboratoires, universités, écoles et industries Certains participent déjà à EGEE et EGEE2 comme par exemples: CGG, ECP, LRI (P11), IPSL (P6),… - champs d’applications actuels: Physique des Particules, Biomédical, Physique théorique, Radio chimie, Sciences de la Terre et Astrophysique

20 mars 2006J-P Meyer20 LPNHE 5 laboratoires de la région Ile de France: Mais aussi 3 universités et une école Les partenaires de GRIF: Nécessite de créer un GIS (rédaction en cours)

20 mars 2006J-P Meyer21 Structure du projet GRIF Représentant LCG-France et LCG-World (J-P Meyer) Comité de Pilotage scientifique (J-P Meyer) Comité de Pilotage technique (M. Jouvin) PartenairesReprésentant techniqueReprésentant scientifique DAPNIAP. MicoutJ.-P. Meyer IPNOC. DiarraC. Suire/H. Harroch LALM. JouvinC. Loomis/G. Wormser LLRP. Mora de FreitasC. Charlot/P. Busson LPNHEL. MartinF. Derue

20 mars 2006J-P Meyer22 Le Réseau RENATER en IdF CEA Saclay LLR 0,1G

20 mars 2006J-P Meyer23 Objectifs du projet GRIF Année Total CPU (ksi2k*) Total Disque (TB**) Début EGEE Début GRIF Phase prototype Phase de démarrage du LHC (*) 1 ksi2k = 1000 specInt 2000 = 1 P4 à 3GHz (**) 1TB = 1000 Go Ces besoins sont dictés par la création d’un centre Tier2 LCG, les besoins propres des laboratoires et notre participation au projet EGEE.

20 mars 2006J-P Meyer24  Etat actuel du projet (1/2) - Démarrage de GRIF en mars 2005 avec 3 partenaires (DAPNIA,LAL et LPNHE) Deux nœuds existants (LAL et DAPNIA) - Septembre 2005 le LLR et L’IPNO nous rejoignent. - Demandes de budget et achats de matériels fin 2005 dans tous les laboratoires.  3 nœuds en production (DAPNIA, LAL, LPNHE)  2 nœuds en installation (IPNO et LLR) 100 CPU et 36 TB en production 35 CPU et 14 TB en installation (budget 2005) - Equipe technique: ~ 8FTE répartis sur les 5 labo. C’est encore insuffisant  EGEE2 (2 à 3 FTE)

20 mars 2006J-P Meyer25 De nouveaux contacts ont été pris avec: - SHFJ (CEA) et NeuroSpin - DRFC (fusion à Cadarache  EGEE2) - Laboratoire d’embryologie de l’école polytechnique - P11  initiative GridCampus - partenariat LRI – LAL pour étudier les SE - programme inter disciplinaire au CNRS pour créer une Grille nationale  il faut un nœud en IdF. Le potentiel en Région Ile de France est simplement énorme… et presque tout reste à faire…: - laboratoires - universités - industrie  Etat actuel du projet (2/2)

20 mars 2006J-P Meyer26  Les aspects financiers (1/3) ~30% ~28,5% ~17,5% DAPNIACPUDiskF.P.Intégrale LALCPUDiskF.PIntégrale LPNHECPUDiskF.PIntégrale Fraction ressources

20 mars 2006J-P Meyer27 Les aspects financiers (2/3) ~10% ~14% Les fonds propres des laboratoires proviennent de sources très variées mais indépendantes du financement du Tier1.  possibilité de financement des Tier2 Français à partir de 2009? Fraction ressources LLRCPUDiskF.P.Intégrale , IPNOCPUDiskF.P.Intégrale

20 mars 2006J-P Meyer28 Les aspects financiers (3/3) AnnéeF. P. (k€) SESAME (k€) TOTAL (k€) Intégrale (k€) Balance (k€) Proto Démar. LHC Prototype = 0,7 M€ ( ) Demande déposée en 2006 pour couvrir la partie 2007 et 2008 du projet GRIF. Sur cette période: fond propre = 1,2 M€ Aide SESAME = 1,1 M€ Il faut rajouter les frais de fonctionnement et d’infrastructure qui ne sont pas encore estimés pour chaque partenaire.

20 mars 2006J-P Meyer29  Conclusions (1/4)  Ce projet garantie à la région Ile de France la pérennisation du savoir faire Grille dans nos laboratoires.  Le projet est fortement imbriqué dans EGEE(1 et 2) et dans LCG  garanties stabilité et d’aboutissement.  Dans une logique de Grille nationale, l’Ile de France se doit d’apporter sa contribution au moins au même titre que les régions PACA, Rhône Alpes, Auvergne,…  Le projet est fédérateur et ouvert: - 2 nouveaux labo dans GRIF en de nombreux nouveaux contacts que l’on espère concrétiser ont été pris  effort à poursuivre - 5 grands laboratoires actuellement impliqués qui ont tous une obligation de réussite du projet. - équipe technique déjà constituée avec 100 CPU et 36 TB en production.

20 mars 2006J-P Meyer30 Conclusions (2/4)  Rapport OCDE du Workshop à Sydney (25-27 sep. 2005)  « Many experts believe that, within the next two decades, Grids will have in impact that is comparable to that of the WWW. »  le projet GRIF est une opportunité à ne pas rater.  La région Ile de France peut jouer un rôle important dans le développement d’une la grille régionale parce qu’elle a de nombreux atouts: - Un réseau RENATER existant  encore à développer - Une densité forte de centres de recherche - Le pôle de compétitivité (Le DAPNIA et le LAL participent à CARRIOCAS)  La région peut nous aider: - financièrement - mise en relation de partenaires - organisation de séminaires - ……

20 mars 2006J-P Meyer31 Conclusions (3/4)  Les points essentiels du projet GRIF (1/2):  Le projet GRIF permet à la région de s’approprier le savoir faire des grilles de calcul  modèle économique très séduisant (mutualisation des moyens)  favorise fortement l’interdisciplinarité: Physique des Particules, Biomédical, Physique théorique, Radio chimie, Sciences de la Terre, Astrophysique et bientôt l’embryologie,…  propose des infrastructures et une équipe technique déjà constituée  accueil de nouveaux partenaires facilité! Ex: le laboratoire d’embryologie de l’école polytechnique  besoin de stockage 50 GB par jour et par microscope. puis analyse des images (identification de type de cellules, comparaison d’images,…)

20 mars 2006J-P Meyer32 Conclusions (4/4)  Les points essentiels du projet GRIF (2/2):  Avec GRIF les partenaires industriels intéressés peuvent tester la grille et leurs applications immédiatement.  La Grille offre une flexibilité extrême:  Il est facile de rajouter des nouveaux nœuds pour les partenaire plus important désirant acquérir la compétence.  On peut aussi facilement héberger des ressources de calcul ou de stockage pour une communauté n’ayant pas ses propres infrastructures.