Chapitre 10: 2ème partie Gestion de la mémoire virtuelle Chap 10-2.

Slides:



Advertisements
Présentations similaires
MySQL Base de données.
Advertisements

Module Systèmes d’exploitation
Module Systèmes d’exploitation
Module Systèmes d’exploitation
GEF 435 Principes des systèmes d’exploitation
GEF 435 Principes des systèmes dexploitation Structure du logiciel dE/S Partie II (Tanenbaum & 5.3.4)
Chap. 4 Recherche en Table
Chapitre annexe. Récursivité
Portée des variables VBA & Excel
Module Systèmes d’exploitation
GEF 435 Principes des systèmes d’exploitation
Hiver 2005Maj JGA Beaulieu & Capt MWP LeSauvage GEF 243B Programmation informatique appliquée Considération de temps.
GEF 435 Principes des systèmes dexploitation Structure des systèmes dexploitation (Tanenbaum 1.7)
GEF 435 Principes des systèmes d’exploitation
GEF 435 Principes des systèmes d’exploitation
GEF 435 Principes des systèmes d’exploitation
GEF 435 Principes des systèmes dexploitation Concepts des Systèmes dexploitation (Tanenbaum 1.5)
GEF 435 Principes des systèmes d’exploitation
GEF 435 Principes des systèmes d’exploitation
GEF 435 Principes des systèmes d’exploitation
Gestion de la mémoire Chapitre 3.
Performances 1 Évolution : Performance. Performances 2 Évolution : Mémoire.
Mémoire & Processus Cours SE - SRC
Présentation des tables des matières j puis appuyez sur F5 ou cliquez sur Diaporama > Du début. Pour commencer le cours, dans la barre des messages, cliquez.
Traitement Co-Séquentiel: Appariment et Fusion de Plusieurs Listes
To Tune or not to Tune? To Tune or not to Tune? A Lightweight Physical Design Alerter Costa Jean-Denis Le Yaouanc Aurélie Mécanismes de SGBD 2007.
Gestion de la Mémoire Bases Swapping Allocation Contigue Pagination
Serveurs Partagés Oracle
1 Threads et Lightweight Processes Chapitre 5 En français on utilise parfois flots ou fils pour threads. Votre manuel préfère le mot anglais thread : terminologie.
Les instructions PHP pour l'accès à une base de données MySql
Architecture des Ordinateurs
Sections sélectionnées du Chapitre 11
Allocation de mémoire Allocation de mémoire.
Systèmes Superscalaires et VLIW
Programmation concurrente
1 Tri Externe Chapitre 13: Pourquoi Trier? Problème classique en informatique (Voir Knuth, v.3)! Données requises en ordre trié P.ex.: Trouver.
Gestion de Fichiers Indexes basés sur les structures d’arbres binaires et indexes à niveaux multiples.
1 Tri Externe Chapitre 13: Pourquoi Trier? Problème classique en informatique (Voir Knuth, v.3)! Données requises en ordre trié P.ex.: Trouver.
Gestion de Fichiers Tri Interne Efficace et Tri Externe.
Gestion de Fichiers Hachage Extensible.
Universté de la Manouba
Partie II Sémantique.
Module 8 – La mémoire virtuelle
Gestion de Fichiers GF-10: Traitement Co-Sequentiel: Appariment et Fusion de Plusieures Listes (Base sur les sections de Folk, Zoellick & Riccardi,
Ordonnancement de tâches
Tutorat en bio-informatique Le 21 novembre Exercices 2 et 3 (MAT1400) - solutions Chapitre 11.7, Analyse - concepts et contextes vol. 2 27) Cherchez.
Programmation linéaire en nombres entiers : les méthodes de troncature

Vue d'ensemble Surveillance des journaux d'événements
O-notation 1. Introduction 2. O-notation 3. Opérations 3.1 Somme 3.2 Produit 4. Règles générales 5. Exemple 6.Analyse des algorithmes récursifs 6.1 Dilatation.
Module 8 : Surveillance des performances de SQL Server
Cours de Systèmes d’exploitations
Programmation linéaire en nombres entiers
Programmation Système et Réseau
GF-11: Tri Interne Efficace et Tri Externe
Structures de données avancées : LH (Hachage linéaire) D. E ZEGOUR Institut National d ’Informatique.
Doan Chien Thang Aôut,2008.  La vue d'ensemble des systèmes d'exploitation  Les processus et les fils  Gestion de la mémoire  Le système des fichiers.
Architecture et technologie des ordinateurs II
Module 7 Gestion de la mémoire
Structures de données avancées : Principales structures de fichiers
Structures de données avancées : Arbres B+ avec expansion partielle D. E ZEGOUR Institut National d ’Informatique.
8PRO107 Éléments de programmation Les adresses et les pointeurs.
Architecture et technologie des ordinateurs II
Ordinateurs, Structure et Applications
ALLOCATION DU CPU et GESTION DES TRAVAUX.
Memoire.
Raison d'être de la structure de fichiers : Les premiers travaux : Début des années 1960 : En 1963 : Près de 10 ans plus tard... (à peu près 1973) : Durant.
Chapitre 12 Surveillance des ressources et des performances Module S41.
MES STRATÉGIES DE LECTURE
Module 81 Module 8 – La mémoire virtuelle Chapitre 9 (Silberchatz)
Transcription de la présentation:

Chapitre 10: 2ème partie Gestion de la mémoire virtuelle Chap 10-2

Allocation de cadres MP Pour exécuter, un processus a besoin d’un nombre minimal de cadres de MP par exemple, quelques instructions pourraient avoir besoin de plusieurs pages simultanément pour exécuter! Il est aussi facile de voir qu’un proc qui reçoit très peu de MP subira un nombre excessif de défauts de pagination, donc il sera excessivement ralenti Comment s`assurer qu’un proc soit alloué son minimum allocation égale: chaque processus a droit a une portion égale de la mémoire physique allocation proportionnelle: chaque processus a droit à une portion proportionnelle à sa taille le critère devrait plutôt être le besoin de pages: v. working set Chap 10-2 http://w3.uqo.ca/luigi/

Allocation globale ou locale Globale: la `victime`est prise de n`importe quel processus Locale: la `victime`est prise du processus qui a besoin du cadre L’allocation globale peut mieux optimiser la performance globale d’un système, Pouvant prendre en considération les besoins de tous les processus actifs Et donc elle est celle qui est normalement utilisée Chap 10-2

L’écroulement et l’ensemble de travail Chap 10-2

Écroulement ou thrashing (liter.: défaite) Un proc qui n’a pas assez de MP finira par passer trop de temps dans les files d`attente Si cette situation se généralise à plusieurs procs, l’UCT se trouvera à être sous-utilisée Le SE pourra chercher de remédier à cette situation en augmentant le niveau de multiprogrammation plus de procs en mémoire! moins de mém par proc! plus de défauts de pagination! Désastre: écroulement le système devient entièrement occupé à faire des E/S de pages, il ne réussit plus à faire de travail utile Chap 10-2

La raison de l`écroulement Chaque processus a besoin d ’un certain nombre de pages en MP pour exécuter efficacement Le nombre de pages dont l’ensemble de processus a besoin à l’instant excède le nombre de cadres de MP disponible il faut prendre la bonne décision au point * Ne pas augmenter le niveau de multiprogrammation * Chap 10-2

Ensemble de travail (working set) L’ensemble de travail d’un proc donné à un moment d’exécution donné est l’ensemble des pages dont le proc a besoin pour exécuter sans trop de défauts de pagination Malheureusement, un concept théorique et flou Chap 10-2

Comportement typique d’un programme Au début, un programme occasionnera un certain nombre de fautes de pagination pour charger toutes les pages dont il a besoin à ce moment là (son ensemble de travail initial) Il travaillera un peu sur ces pages, puis il passera à faire autres choses: Il aura donc besoin de charger d’autres pages Il travaillera sur ces pages, etc. Chap 10-2

Exemple 1 Chargement d’une page web Consultation de la page chargée Chargement d’une autre page web Etc. Chap 10-2

Exemple 2 Vous faites du traitement du texte Le programme Word et votre texte doivent être amenés en MP Mais puis si vous restez dans le même travail, tout est déjà en MP Vous passez à faire du tablier Le programme Excel et les données doivent être amenés en MP Mais puis si vous restez dans le même travail tout sera déjà en MP Chap 10-2

Figure 10.16 Working-set model. Chercher à prévoir les demandes de pages sur la base des demandes passées Fixer un intervalle D Les pages intéressées par les dernières D operations de mémoire sont dans l’ensemble de travail déterminé par D Chaîne de réf. WS(t1) = {1, 2, 5, 6, 7} t1 D WS(t2) = {3, 4} t2 … 2 6 1 5 7 7 7 7 5 1 6 2 3 4 1 2 3 4 4 4 3 4 3 4 4 4 1 3 2 3 4 4 4 3 4 4 4 … Figure 10.16 Working-set model. D =10 opér D = 4 donnerait le même résultat pour t2! Chap 10-2

Modèle de l’ensemble de travail D = une fenêtre d’ensemble de travail = un nombre fixe de réf. de pages p.ex. 10 000 opérations de mémoire SI trop petit, il contiendra pas tout l’ensemble de pages couramment utilisées Si trop grand, il contiendra plusieurs ensembles de pages WSSi (ensemble de travail du proc. i) D = ∑ WSSi nombre total de cadres demandés par tous les procs en exéc Si D > MP  Risque d’écroulement S’assurer que ceci ne se vérifie pas si nécessaire, suspendre un des processus Problème: choisir un bon D peut être fait par le gérant du système Chap 10-2

Implémentation du concept de WS: difficile! Minuterie et bits référence Bit de référence qui est mis à 1 chaque fois que une page est utilisée Minuterie qui interrompt régulièrement pour voir les pages qui ont été utilisées dans un intervalle de temps Chap 10-2

Le concept de WS en pratique Deux types de difficultés: fixer le D de façon différente pour chaque processus, pour représenter ses besoins Du matériel spécial est nécessaire pour suivre le WS d’un proc à un moment donné Voyons une approche plus pratique  Chap 10-2

Pour chaque processus, il existe une dimension de MP acceptable ceci suggère une approche plus pratique Chap 10-2 acceptable

Une méthode plus facile à implanter que WS Le gérant du système détermine quelles sont les nombres de défauts de pagination maximales et minimales tolérables dans le système, et pour chaque travail, selon ses caractéristiques Si un travail en produit plus que sa juste partie, lui donner plus de MP Si un travail en produit moins, lui donner moins de MP Suspendre si possible des travaux qu`on ne peut pas satisfaire Ou amorcer d’autres travaux si les ressources sont disponibles Chap 10-2

Optimisations Chap 10-2

Optimisations Un grand nombre de techniques d’optimisation ont été proposées et implantées Le manuel en discute plusieurs: Prépagination, post-nettoyage Stockage efficace Taille optimale des pages Chap 10-2

Prépagination, post-nettoyage noter quelles pages paraissent être reliées les unes aux autres quand une de ces pages est amenée en mémoire RAM, y amener les autres en même temps ne pas amener une seule page, s’il n`y a pas assez d ’espace pour les autres éventuellement, stocker toutes ces pages dans des secteurs contigus de disque, de façon qu ’elles puissent être lues rapidement en séquence Post-nettoyage (post-purging) enlever ensemble tout un groupe de pages reliées (même localité) Chap 10-2

Stocker les pages de façon efficace Si la MS est sur disque Chap 10-2

Tailles de pages (un pb de conception matériel) Grande variété de tailles de pages aujourd’hui en pratique: de 4KB à 4MB Avantages des petites pages: moins de fragmentation interne moins d’information inutile en mémoire Avantages des grandes pages: tableaux de pages plus petits si la MS est sur disque, le temps de disque le plus important est le temps de positionnement une fois le disque positionné, il vaut la peine de lire une grande page Tendance aujourd’hui vers grandes pages car nous avons des grands MPs Chap 10-2

Pages grandes ou petites Avec une petite taille grand nombre de pages en MP chaque page contient uniquement du code utilisé moins de fragm. interne et externe peu de défauts de page une fois que toutes les pages utiles sont chargées tableaux de pages plus grands En augmentant la taille moins de pages peuvent être gardées dans MP chaque page contient plus de code qui n’est pas utilisé plus de fragmentation plus de défauts de page tableaux de pages moins grands Les défauts de pages diminuent lorsque nous approchons le point P où la taille d’une page est celle d’un processus entier Stallings Chap 10-2

Différentes tailles de pages Certains processeurs supportent plusieurs tailles. Ex: R4000 supporte 7 tailles: 4KB à 16MB Aujourd’hui il y a des UCT qui admettent des tailles de pages jusqu’à 1G dimensions différentes peuvent être en utilisation par des travaux différents, selon leur caractéristiques de localité Travaux qui utilisent des grosses boucles et grosses structures de données pourront utiliser bien les grosses pages Des travaux qui ‘sautent’ un peu partout sont dans la situation contraire L’UCT (ou MMU) contient un registre qui dit la taille de page couramment utilisée Pour en savoir plus: Consultez ‘Page (computer memory)’ dans Wikipedia Chap 10-2

Effets de l’organisation du programme sur l’efficacité de la pagination En principe, la pagination est censée être invisible au programmeur Mais le programmeur peut en voir les conséquences en termes de dégradation de performance p.ex. quand il change d ’un contexte à l’autre Le programmeur peut chercher à éviter la dégradation en cherchant d’augmenter la localité des références dans son programme Chap 10-2

Effets de l’organisation du programme sur l’efficacité de la pagination Supposons que un compilateur organise les tableaux en mémoire par lignes Mais que un programme le balaie par colonnes Dans une mémoire non-paginée: aucune inconvénient observable Mais dans une mémoire paginée: Inefficacité si le tableau est gros, p.ex. si chaque ligne est sur une page différente Chap 10-2

Tableau organisé par lignes, balayage par colonnes ligne 1 = page 1 Tableau organisé par lignes, balayage par colonnes ligne 2 = page 2 ligne 3 = page 3 Fautes de pagination répétées Mém logique d’un proc. Chap 10-2 Chap 10

Tableau organisé par lignes, balayage par lignes Col 1 Col 2 Col 3 ligne 1 = page 1 Tableau organisé par lignes, balayage par lignes ligne 2 = page 2 ligne 3 = page 3 Fautes de pagination minimales Mém logique d’un proc. Chap 10-2

Effets de l’organisation du programme sur l’efficacité de la pagination Structure de programme Array A[1024, 1024] chaque ligne du tableau est stockée dans une page différente, un cadre différent Programme 1: balayage par colonnes: for j = 1 to 1024 do for i = 1 to 1024 do A[i,j] = 0; jusqu’à 1024 x 1024 défauts de pagination Programme 2: balayage par lignes: for i = 1 to 1024 do for j = 1 to 1024 do A[i,j] = 0; jusqu’à 1024 défauts de pagination Chap 10-2

Expérience pratique (article paru en 2010) Un serveur web roulait sur 12 machines et les gardait très occupées Un programmeur astucieux s’est aperçu que l’algorithme utilisé faisait accès à des données qui à chaque fois étaient fort probablement dans des pages différentes Il a utilisé un algorithme théoriquement moins optimal mais qui utilisait mieux la localité Le matériel a pu être réduit à 3 machines! Kamp, P.H.: You’re doing it wrong. Comm. ACM 53(7), 2010, 55-59. Chap 10-2

Les rectangles blancs représentent les pages Binary Heap: (théoriq. optimal sans pagination) Mauvaise structure: les parcours dans les arbres touchent à des pages différentes (p.ex. 6 accès de pages pour aller de 32 à 47, 4 pages différentes) B-Heap: (théoriq. moins bon) Mieux: Les parcours dans les arbres restent souvent dans la même page (p.ex. 3 accès de pages pour aller de 32 à 47, 3 pages différentes) Chap 10-2

Verrouillage de pages en mémoire Certaines pages doivent être verrouillées en mémoire, p.ex. celles qui contiennent le noyau du SE Il est aussi essentiel de verrouiller en mémoire des pages sur lesquelles il y a exécution d ’E/S Ceci peut être obtenu avec un bit `verrou` sur le cadre de mémoire ce bit veut dire que ce cadre ne peut pas être sélectionné comme `victime`  Chap 10-2

Systèmes en temps réel Avec la mémoire virtuelle, les temps d’exécution d’un processus deviennent moins prévisibles retards inattendus à cause de la pagination Donc les systèmes en temps réel `durs` utilisent peu ou point la mémoire virtuelle Chap 10-2

En pratique Chap 10-2

Combinaison de techniques Les SE réels utilisent les techniques que nous avons étudiées en combinaison, e.g. Linux utilise le buddy system en combinaison avec la pagination (la plus petite portion de mémoire allouable est une page) d`autres systèmes utilisent les partitions fixes avec la pagination, ce qui peut être fait de plusieurs façons: diviser la mémoire réelle en partitions fixes, assigner chaque partition à un ou plusieurs processus, puis paginer un processus dans la partitions qui lui a été assignée diviser la mémoire virtuelle en partitions, assigner chaque partition à un ou plus. processus, puis utiliser la technique appropriée pour chaque processus dans sa partition Les SE réels sont complexes et variés, mais les principes étudiés dans ce cours en constituent la base. Chap 10-2

Conclusions 1 Il est fortement désirable que l`espace d ’adressage de l’usager puisse être beaucoup plus grand que l ’espace d ’adressage de la mémoire RAM Le programmeur sera donc libéré de la préoccupation de gérer son occupation de mémoire cependant, il devra chercher à maximiser la localité de son processus La mémoire virtuelle aussi permet à plus de processus d ’être en exécution UCT, E/S plus occupées Chap 10-2

Conclusions 2 Le problème de décider la page victime n’est pas facile. Les meilleurs algorithmes sont impossibles ou difficiles à implanter On voit ici beaucoup de complexité dans les systèmes réels Chap 10-2

Conclusions 3 Il faut s’assurer que chaque processus ait assez de pages en mémoire physique pour exécuter efficacement risque d’écroulement Le modèle de l’ensemble de travail exprime bien les exigences, cependant il est difficile à implanter Solution plus pragmatique, où on décide de donner + ou - de mémoire aux processus selon leur débit de défauts de pagination À fin que ces mécanismes de gestion mémoire soient efficaces, plusieurs types de mécanismes sont désirables dans le matériel Chap 10-2

Dans un système réel Une lecture disque rotationnel sur un PC prend autour de 10ms Donc la limite est autour de 100 fautes de pagination par seconde Dans un serveur avec mémoire secondaire éléctronique (p.ex. flash memory) le taux de pagination peut arriver à milliers de pages par seconde Le temps d’exécution d’une seule faute de pagination peut être comparable au temps d’exécution d’entre 10 et 100 millions d’instructions régulières Mais ces données varient beaucoup d’ordi à ordi Chap 10-2

Concepts importants du Chap. 10 Localité des références Mémoire virtuelle implémentée par va-et-vient des pages, mécanismes, défauts de pages Adresses physiques et adresses logiques Temps moyen d’accès à la mémoire Récriture ou non de pages sur mém secondaire Algorithmes de remplacement pages: OPT, LRU, FIFO, Horloge Fonctionnement, comparaison Écroulement, causes Ensemble de travail (working set) Relation entre la mémoire allouée à un proc et le nombre d’interruptions Relation entre la dimension de pages et les défauts de pages Prépagination, post-nettoyage Effets de l’organisation d’un programme sur l’efficacité de la pagination Chap 10-2

Par rapport au manuel… Sections 10.3, 10.4.7, 10.4.8, 10.5,10.7: intéressantes, mais pas sujet d’examen Chap 10-2

Recherche récente Un article de 2010 présente un système dans lequel on a implémenté trois mécanismes pour sauver de la mémoire: Partage de pages: comme nous avons vu. 'Patching': ceci est pour des pages qui sont différentes seulement dans certains aspects. Ces pages sont trouvées et on crée une page typique, plus des courtes 'patches' qui donnent la différence entre la page typique et les pages semblables. Compression: les pages pas récemment utilisées sont comprimées et peuvent être transférées sur disque plus tard. L’algorithme de remplacement pages utilisé est essentiellement l’ horloge Tout ceci paraît très exigeant pour les ressources de l'UCT (comparaisons, compression ...), mais n'oublions pas que l'UCT est souvent peu occupée. D. Gupta, S. Lee, M. Vrable, S. Savage, A.C. Snoeren, G. Varghese, G.M. Voelker, A. Vahdat: Difference Engine: Harnessing Memory Redundancy in Virtual Machines. Comm. ACM, 53 (10) 85-93 Chap 10-2

Un peu d’histoire Le concept de régistre de base fut inventé pendant les années 1950 et fut le premier pas vers l’indépendence entre mémoire logique et mémoire physique 1959: système Manchester Atlas invente le concept de mémoire virtuelle. Implémente la pagination et la mémoire associative TLB. 1964 : Burroughs B5500 implémente la segmentation. 1964 : Système Multics, collaboration entre General Electric et Massachusetts Institute of Technology, implémente dans le système GE645 une mémoire virtuelle qui combine la pagination et la segmentation. 1969 : Une équipe d’IBM (David Sayre) prouve que le concept de mémoire virtuelle est effectivement plus performant que les méthodes implémentées manuellement comme les ‘overlays’. Ceci fut fait en étudiant la performance de programmes réels utilisant les deux méthodes. La segmentation ne fut pas implantée dans Unix ni Windows, en raison des moyens limités des premiers PC (Unix voulait être une version simplifiée et plus pratique de Multics) Aujourd’hui, l’architecture Intel supporte tant la segmentation que la pagination, mais la segmentation comme décrite avant continue de ne pas être implantée dans les systèmes comme Unix, Linux ou Windows (Dommage…). Chap 10-2

Pentium segmentation & paging (notes de cours par Dave Reed, Creighton U) max segment size = 4 GB max # of segments per process = 16 KB logical address is 48 bits long 16-bit selector identifies the segment 32-bit offset specifies location in segment paging page size = 4 KB or 4MB utilizes 2-level paging scheme first 10 bits index a page directory next 10 bits index corresponding page table remaining 12 bits specify offset in page Chap 10-2

Linux on Pentium Systems since some processors don't support segmentation, Linux doesn't rely on it on the Pentium, Linux uses only 6 segments kernel code, kernel data, user code, user data, task-state, local-descriptor table since some processors support 64-bit addresses, 2-level paging is not sufficient in general, Linux uses 3-level paging but uses 0 bits for middle table if only 32-bits are supported (as with Pentium) Chap 10-2