1 Détection et tolérance aux fautes dans JuxMem Sébastien Monnet IRISA / PARIS Lyon, 05/12/2003.

Slides:



Advertisements
Présentations similaires
Karima Boudaoud, Charles McCathieNevile
Advertisements

Introduction à la tolérance aux défaillances
Sous-projet IV Communications Placement/Ordonnancement.
Détecteurs de fautes pour réseaux dynamiques P. Sens, L. Arantes, M. Bouillaguet Projet REGAL.
Gabriel Antoniu IRISA / INRIA Rennes
Applications de GdX Coordinateur thématique : Christophe Cérin
Introduction aux réseaux informatiques
Virtualisation dorchestration de services TER Master 1 Infomatique 4 Avril 2008 Encadrant : Philippe Collet.
DUDIN Aymeric MARINO Andrès
Nicolas Galliot M2SIR David Raspilaire
Applications et Techniques
Laboratoire d'InfoRmatique en Image et Systèmes d'information LIRIS UMR 5205 CNRS/INSA de Lyon/Université Claude Bernard Lyon 1/Université Lumière Lyon.
26/03/2017 Fonctionnement d ’un cluster sous AIX grâce à HACMP : High Availability Cluster Multi-Processing Raphaël Bosc, IR5.
Architecture ENT-UNR.
Les jeux persistants massivement Multijoueurs : problèmes techniques Vincent Roudaut MASTER M2 ESTC/CAM
Modèle de coût algorithmique intégrant des mécanismes de tolérance aux pannes Samir Jafar, Thierry Gautier, Jean Louis Roch Laboratoire ID-IMAG Equipe.
Jean-François Deverge, Sébastien Monnet
BDA'02 1 Tolérance aux fautes (TaF) adaptable pour les systèmes à composants : application à un gestionnaire de données Phuong-Quynh Duong, Elizabeth Pérez-Cortés,
Thème « Modélisation comportementale des Systèmes critiques »
IRISA18 novembre ACI Sécurité DADDi Dependable Anomaly Detection with Diagnosis IRISA.
simulateur de réseau de machines UML connectées par WiFi mode ad-hoc
Tests et Validation du logiciel
FrontCall - 4C Les Centres de Contacts Virtuels
C O N N E C T I N G B U S I N E S S & T E C H N O L O G Y Pierre-Yves Paris Retour dexpérience sur une externalisation de.
DataGRAAL DataGRid pour Animation et Applications à Large échelle
Noyau persistant en réseaux pair-à-pair Comment relier la taille à la durée de vie V. Gramoli, A-M. Kermarrec, A. Mostéfaoui, M. Raynal, B. Sericola.
Le Reengineering.
Réunion DataGraal Janvier 2003 Grenoble
Un nouveau monde d’échange sur Internet ????
Soutenance Orale, TER 2002 Equipe TENEBRION / J.P. Arcangeli
Développement d’application web
Détection de défaillances pour les grilles
Module 2 : Configuration de l'environnement Windows 2000.
1 Protection des arbres multicast avec une forêt duale Mohand Yazid SAIDI Bernard COUSIN Miklós MOLNÁR 15 Février 2006.
Architecture des systèmes pair-à-pair de gestion de données Gabriel Antoniu Projet PARIS IRISA/INRIA.
LEGO – Rennes, 18 Septembre 2006 Un outil de monitoring pour le déploiement dynamique de JuxMem Loïc Cudennec IRISA / INRIA, PARIS project-team Stage de.
Faculté des sciences économique et gestion de Nabeul
GDS – Paris, 13 Octobre 2006 Un outil de monitoring pour le déploiement dynamique de JuxMem Loïc Cudennec IRISA / INRIA, PARIS project-team Stage de M2RI.
Partage de mémoire à très grande échelle sur des réseaux pair-à-pair
1 © Copyright 2010 EMC Corporation. Tous droits réservés.  Consolidation  Économies d’échelle grâce à la standardisation  Réduction des coûts informatiques.
La réplication dans les réseaux mobiles ad hoc
JXTA-C, JuxMem-C : dernières nouvelles Gabriel Antoniu, IRISA Preview d’un prochain exposé par Mathieu :-)
1 Gestion de données à grande échelle : une approche pair-à-pair à partir de l'environnement JXTA Gabriel Antoniu, Luc Bougé IRISA, équipe PARIS CUIC 2003.
1 Détecteurs de défaillances adaptables Marin BERTIER Thèmes SRC Laboratoire d'Informatique de Paris 6 Université Pierre & Marie Curie.
Plan Définitions et exemples Composants de cluster
“Software defined Storage”
Modèles et protocoles de cohérence des données en environnement volatil Grid Data Service IRISA (Rennes), LIP (Lyon) et LIP6 (Paris) Loïc Cudennec Superviseurs.
Le contenu est basé aux transparents du 7 ème édition de «Software Engineering» de Ian Sommerville«Software Engineering» de Ian Sommerville B.Shishedjiev.
1 Nomination de mandataire Marin BERTIER. 2 Contexte ► Développement des GRIDs  Grand nombre de sites  Organisé hiérarchiquement ► Niveau local  cluster.
1/13 Sécurité dans Pastis Fabio Picconi LIP6 13 février 2004 ACI MD Grid Data Services (GDS)
Etude de la volatilité dans un système de stockage P2P Fabio Picconi – LIP6.
Nicolas DEWEZ Cyrille JOSSELIN Tuteur: Thierry DELOT Conception d’une application de partage de fichiers Projet IUP3 GMI - Valenciennes Jeudi, 23 mars.
D. E ZEGOUR Institut National d ’Informatique
ASKIT v2.0 Gestion de l’ASCII DAUVERGNE Sébastien DEZE Simon Master 1 Informatique.
GDS : Grid Data Service Gabriel Antoniu IRISA / INRIA Rennes Réunion de lancement du projet GDS de l’ACI Masses de Données 22 septembre 2003.
Gabriel Antoniu IRISA / INRIA Rennes
Les Architectures Pair à Pair (KaZaa)
1 Premières études sur la gestion de la volatilité dans Pastis Fabio Picconi Réunion GDS – 19/11/2004.
COMPARAISON ENTRE GNUTELLA ET FREENET
Un service de partage de données pour DIET : GDS basé sur JuxMem Mathieu Jan Projet PARIS Lyon, 5 décembre 2003.
1 Un protocole de cohérence des données tolérant aux fautes Jean-Francois Deverge Encadrants : Gabriel Antoniu, Luc Bougé Réunion GDS IRISA – Projet PARIS.
GDS : Grid Data Service Etat de l’avancement Gabriel Antoniu Réunion GDS, Lyon, 17 février 2006 IRISA, Rennes ACI Masses de Données.
1 Détection de défaillances et algorithmes répartis pour les GRIDs Marin BERTIER Thèmes SRC Laboratoire d'Informatique de Paris 6 Université Pierre & Marie.
Club Utilisateurs Salesforce.com France
Projet GDS de l’ACI MD Projet PARIS IRISA, Rennes.
30/11/2007Architecture logicielle pour l’adaptation dynamique; Application à la réplication de données1 Architecture logicielle pour l’adaptation dynamique.
Lellouche Aaron ITIC Paris
C. CremonaRéunion MIKTI/Thème V - 16/03/00 1 Projet National MIKTI Thème V Stratégies d ’inspection et de maintenance des tabliers mixtes.
1 18 mars 2010 Exercices PRA Mainframe Lionel PHELPIN.
JI2006Muriel Gougerot - Nicole Iribarnes Virtualisation au LAPP.
Transcription de la présentation:

1 Détection et tolérance aux fautes dans JuxMem Sébastien Monnet IRISA / PARIS Lyon, 05/12/2003

2 Plan Justification JuxMem : l’existant Détection de défaillances Stratégies de réplication JuxMem : objectifs Détection de défaillances Stratégies de réplication Implémentation en JXTA Objectifs à court terme

3 Tolérance aux fautes : justification Large échelle (~ nœuds) MTBF court (~ heure) Volatilité des nœuds Déconnections volontaires Crash Sécurité Fautes Byzantines

4 Architecture de JuxMem Architecture hiérarchique juxmem group cluster A groupcluster B group cluster C group Data group

5 Tolérance aux fautes dans le groupe cluster Détection Ping (offert par JXTA) Réplication semi-active du rôle de gestionnaire Taux de réplication fixe (2) : Un gestionnaire principal Un gestionnaire secondaire

6 Tolérance aux fautes dans le groupe data Détection de fautes Ping (comme pour le groupe cluster) Réplication semi-active du rôle de gestionnaire (comme pour le groupe cluster) Réplication active des données Écriture => multicast virtuel dans le groupe data Taux de réplication fixé par le client Perte d’une copie => création d’une nouvelle copie

7 Améliorations Détection de fautes Passage de centralisé à décentralisé Passage à un modèle hiérarchique JuxMem : plate-forme d’expérimentation pour plusieurs stratégies de réplications

8 Détection de défaillances : Heartbeats Encombrement réseau moins important Détection plus fine Calcul du « delta » dynamique, (Marin Berthier, REGAL) Prise en compte des n derniers heartbeats reçus (historique) Prise en compte de la charge réseau Introspection (Fabio Picconi, REGAL) PingHeartbeat  

9 Détection de défaillances : un modèle hiérarchique (DARX) Décentralisé Au sein d’un cluster : all-to-all Optimisations possibles Entre les groupes cluster : leader-to-leader Découplage Faute d’un pair : vue au niveau du cluster Disparition d’un cluster : vue par tous les leaders

10 Compromis réactivité / taux de fausses détections Permettre un choix entre Bonne réactivité et Faible taux de fausses détections Couche d’adaptation (filtrage des détections de défaillance) En fonction du type de réplication En fonction de la criticité du rôle du pair (gestionnaire / simple fournisseur)

11 Réplication active : principe Pessimiste Mise à jour simultanée de toutes les copies Acquittements reçus Directement par le client (active) Via un gestionnaire (semi-active) Semi-actives Active

12 Réplication active (suite) Avantages Toutes les copies sont à jour Possibilité de lectures parallèles sur un ensemble de copies Bonne localité des données Inconvénients Écriture lentes Encombrement réseau

13 Réplication passive Principe Optimiste Une copie primaire Des copies secondaires (backups) Avantages Écritures rapides (une seule copie à mettre à jour) Inconvénients Pas de lecture en parallèle Moins de localité des données Possibilité de perdre la copie primaire 12 2

14 Réplication passive (perte de la copie primaire) Retrouver un état application / données cohérent Retour arrière de l’application Besoin de mécanismes de points de reprise Rejouer les modifications intervenue après le dernier backup Besoin de journalisation pessimiste Nécessité de geler l’application 12 2

15 Systèmes de quorums (1) Définition S = ensemble de pairs Q = système de quorum Q = {q  S/  q1,q2  Q, q1  q2  } Exemple Quorums majoritaires

16 Systèmes de quorums (2) Principe Système = groupe de pairs fournisseurs possédant une copie d’une donnée Réplication active au sein d’un quorum Une modification dans un quorum est visible dans l’ensemble des quorums

17 Systèmes de quorums (3) Avantage |quorum|<|groupe de copies| Moins de copies à mettre à jour lors d’une écriture Écritures plus rapides Possibilité de conserver une bonne localité Construction du système de quorum Jean-Michel Busca (REGAL) Inconvénients Coût de la construction et du maintien du système de quorum Multiples versions de la donnée au sein d’un même quorum Lectures lentes (phase de sélection de la version)

18 Stratégies hybrides Possibilité de « mixer » les stratégies de réplication Gros grain : une stratégie par groupe data Criticité de la donnée Grain fin : pour une même donnée Recherche de performances Intérêt : tirer parti des avantages des différentes stratégies

19 Stratégies hybrides : exemple Active / passive Plusieurs copies actives Copies secondaires en cas de nombreuses fautes multiples Avantages Peu de copies à mettre à jour en cas d’écriture Plus simple à mettre en œuvre qu’un système de quorums

20 Exemple de stratégie hybride dans JuxMem Active / passive Copies actives placées dans les clusters où un client utilise la donnée Copies secondaires dans les autres

21 Adaptation de la stratégie de réplication En fonction des « conseils » donnés par l’application En fonction des données d’introspection Charge réseau Taux de défaillances (MTBF) courant

22 Objectifs dans JuxMem Une plate-forme implémentant différentes stratégies de réplication Mise en place de mécanismes de choix de politique de tolérance aux défaillances Des préférences de l’application État du système (introspection)

23 Implémentation avec JXTA Détecteurs de défaillance Utilisation des « lease » de JXTA Équivalence « lease » / heartbeats A quel niveau ? Groupes data Groupes JXTA Systèmes de quorums et stratégies mixtes: Sous groupes des groupes data Utilisation de groupes « légers » de JXTA 2.2

24 Et maintenant ? Détecteurs de défaillances : Définir une interface Implémentation et intégration dans JuxMem Sélection des stratégies de réplication Définir une interface Implémenter plusieurs stratégies : Actif ? Hybride actif / passif ? Quorums ? Liens avec les protocoles de cohérence Stage de DEA de JF Deverge

25

26 juxmem group cluster group data group