计算机操作系统-3-存储管理
Lecture3-存储管理
- 存储管理是操作系统的重要组成部分,负责管理计算机系统的重要资源——内存储器。
- 内存空间一般分为两部分
- 系统区:存放操作系统内核程序和数据结构等。
- 用户区:存放应用程序和数据。
- 存储管理包括以下功能:
- 存储分配:位进程分配内存空间以便运行,完成内存区的分配和去配工作。
- 地址映射:内存被抽象为一维或二维地址空间;逻辑空间到物理空间映射。
- 存储保护:系统隔离分配给进程的内存区,防止地址越界或操作越权。
- 存储共享:系统允许多个进程共享内存区。
- 存储扩充:形成虚拟存储器。
1. 存储管理的基础
1.1. 逻辑地址
- 逻辑地址:又称相对地址,即用户编程所使用的地址空间
- 逻辑地址从零开始编号,有两种形式:
- 一维逻辑地址(地址)
- 二维逻辑地址(段号:段内地址)
。
1.2. 物理地址:从处理器角度看到的物理内存单元。
- 物理地址:又称绝对地址,即程序执行所使用的地址空间
- 处理器执行指令时按照物理地址进行
1.3. 段式程序设计
- 把一个程序设计成多个段:代码段、数据段、堆栈段等等
- 用户可以自己应用段覆盖技术扩充内存空间使用量,这一技术是程序设计技术,不是OS存储管理的功能:只是用一些段构成一个比较小的程序,然后动态来调整。
- 结合虚存完成内存部分的扩充
1.4. 主存储器的复用
- 多道程序设计需要复用主存
- 按照分区复用:
- 主存划分为多个固定/可变尺寸的分区
- 一个程序/程序段占用一个分区
- 按照页架复用:
- 主存划分成多个固定大小的页架
- 一个程序/程序段占用多个页架
1.5. 存储管理的基本模式
- 单连续存储管理:一维逻辑地址空间的程序占用一个主存固定分区或可变分区
- 段式存储管理:段式二维逻辑地址空间的程序占用多个主存可变分区
- 页式存储管理:一维逻辑地址空间的程序占用多个主存页架区
- 段页式存储管理:段式二维逻辑地址空间的程序占用多个主存页架区
- 注意是否可以虚拟化
1.6. 存储管理模式示意图
- 应用级程序员直接面对的是逻辑地址,而最后运行需要使用的是物理地址:从处理器角度看到的物理内存单元。。
- 一般目前常用的是动态重定位,将逻辑地址转换为对应的物理地址。
- 分页:形成页框加载程序,页框和页框之间可以是不连续的。
- 分段:每一个段有相应分区,使用段表完成逻辑段向物理段的映射
- 段页式:在分段基础上,还实现了页框部分。
2. 存储管理的功能
2.1. 地址转换
- 地址转换:又称重定位,即把逻辑地址转换成绝对地址
- 静态重定位:在程序装入内存时进行地址转换:由装入程序执行,早期小型OS使用,基于地址固定值进行偏移。
- 动态重地位(主流):在CPU执行程序时进行地址转换:从效率出发,依赖硬件地址转换机构,运行时正确的将其逻辑地址转换为物理地址。
- 解释执行指令的时候才进行地址的转换,必须要借助硬件电路完成,而不能用软件完成(效率考量)
2.2. 存储保护
- 为避免主存中的多个进程相互干扰,必须对主存中的程序和数据进行保护
- 私有主存区中的信息:可读可写
- 公共区中的共享信息:根据授权
- 非本进程信息:不可读写
- 这一功能需要软硬件协同完成:CPU检查是否允许访问,不允许则产生地址保护异常,由OS进行相应处理
- 地址越界保护依赖于硬件设施、常用的有界地址和存储键。
- 进程在访问分配给自己的内存区时,要对访问权限进行检查
2.3. 主存储器空间的分配与去配
- 分配:进程装入主存时,存储管理软件进行具体的主存分配操作,并设置一个表格记录主存空间的分配情况
- 去配:当某个进程撤离或主动归还主存资源时,存储管理软件要收回它所占用的全部或者部分存储空间,调整主存分配表信息
2.4. 主存储器空间的共享
- 多个进程共享主存储器资源:多道程序设计技术使若干个程序同时进入主存储器,各自占用一定数量的存储空间,共同使用一个主存储器
- 多个进程共享主存储器的某些区域:若干个协作进程有共同的主存程序块或者主存数据块
2.5. 主存储器空间的扩充
- 存储扩充:把磁盘作为主存扩充,只把部分进程或进程的部分内容装入内存:扩大多道程序设计的道数
- 对换技术:把部分不运行的进程调出
- 虚拟技术:只调入进程的部分内容,对单个进程不使用对换技术完成,特点是自动化、透明
- 这一工作需要软硬件协作完成
- 对换进程决定对换,硬件结构完成调入
- CPU处理到不在主存的地址,发出虚拟地址异常,OS将其调入,重执指令
- 进程的内存为4MB4MB4MB,一个页框4KB4KB4KB,有102410241024个页框,页框表一共161616个页框,页的压缩比是102416=64\frac{1024}{16} = 64161024=64。
3. 连续存储管理
3.1. 单连续分区存储管理
- 每个进程占用一个物理上完全连续的存储空间(区域)
- 单连续分区存储管理细分:
- 单用户连续存储管理
- 固定分区存储管理
- 可变分区存储管理
- 分区方式不能实现虚拟存储。
3.1.1. 单用户连续分区存储管理
- 适用于单用户单任务操作系统,如DOS
- 主存区域(内存空间)划分为系统区与用户区
- 系统区用于存放操作系统内核程序和数据结构等
- 用户区用于存放应用程序和数据
- 设置一个栅栏寄存器界分两个区域,硬件用它在执行时进行存储保护
- 一般采用静态重定位进行地址转换
- 硬件实现代价低
- 单用户连续分区存储管理示意
- 静态重定位:在装入一个作业时,把该作业中程序的指令地址和数据地址全部转换成绝对地址
- 界限地址:放置软件访问到操作系统的部分
3.1.2. 固定分区存储管理
- 固定分区存储管理又称静态分区模式
3.1.2.1. 固定分区方式的基本思想
3.1.2.2. 固定分区方式的主存分配
- 主存分配表:包含内容:起始地址、长度、占用标志
- 内存分配方法很简单,其任务有何时吧内存空间划分成分区:由系统管理员和操作系统初始化模块协同完成。
- 作业进入分区的排队策略:
- 每个分区有自己的作业等待队列,作业等待能装下自身的最小分区。
- 所有等待处理作业排成等待队列,每当有空闲,找到队列中能进入的最大的一个。
3.1.2.3. 固定分区方式的地址转换
3.1.2.4. 固定分区存储管理的缺点
- 由于预先规定了分区的大小,使得大作业无法装入,而不得不采用覆盖技术,带来负担。
- 内存空间利用率不高,作业很少填满分区:固定分区存储管理不够灵活,既不适应大尺寸程序,又存在内存内零头,有浪费,内存内零头是因为在分区内部有零头。
- 如果作业在运行中要求动态扩展内存空间是困难的。
- 分区数目是操作系统初启动时确定的,会限制多道运行程序的道数。
3.2. 可变分区存储管理
- 可变分区存储管理又称动态分区模式,按照作业大小划分分区,但划分的时间、大小和位置都是动态的。
- 创建一个进程时,根据进程所需主存量查看主存中是否有足够的连续空闲空间
- 若有,则按需要量分割一个分区
- 若无,则令该进程等待主存资源
- 由于分区大小按照进程实际需要量来确定,因此分区个数是随机变化的
3.2.1. 可变分区方式的内存分配示例
3.2.2. 可变分区方式的主存分配表
- 管理的数据结构:已分配区表与未分配区表,采用链表实现
- 找一个最大的空闲的位置进行分配
3.2.3. 可变分区方式的内存回收
- 可变分区方式的内存回收会导致内存空间的转换
- 作业X撤离后有且仅有如上4种情况。
3.2.4. 可变分区方式的内存分配
- 最先适应分配算法:
- 最先适应就是从上向下查找,找到第一块区域放进去,将剩下的区域分割后仍作为空闲区。
- 有利于大作业装入,但也使得内存低地址和搞地质两端的分区利用不均衡,回收分区麻烦。
- 邻近适应分配算法:
- 从上次查找结束的地方开始执行最先适应分配算法
- 缩短平均查找时间,且存储空间利用率更均衡,不会使得小空闲区集中在内存一侧
- 最优适应分配算法:
- 每次都是分配最接近需要使用大小的部分,会生成很多很小的内存内零头。
- 通常会将空闲区按照长度递增顺序排列,等同于最先适应分配算法,查找时间最长
- 最坏适应分配算法:
- 每次都是挑选最大的一块区域进行分配
- 有利于中小型作业。
- 可把空闲区按长度递减顺序排列,等同于最先适应分配算法。
- 快速适应分配算法:课本补充
- 为经常用到的长度的空闲区设立单独的空闲区链表,查找非常快速
- 归还内存空间时和邻近空闲区的合并复杂且耗时。
- 最常用的是最先适应分配算法,其次是邻近适应分配算法和最优适应分配算法
3.3. 地址转换与存储保护
- 硬件实现机制与动态重定位
- 进程的程序和数据的地址由硬件完成
- 基址寄存器:分配进程的起始地址
- 限长寄存器:进程占用的连续存储空间的长度
3.4. 分区方式的内存零头
- 固定分区方式会产生内存内零头
- 可变分区方式也会随着进程的内存分配产生一些小的不可用的内存分区,称为内存外零头,内存外零头是指分区内部是没有零头的,而是在外面的零头。
- 最优适配算法最容易产生外零头
- 任何适配算法都不能避免产生外零头
3.5. 内存不足的存储技术
3.5.1. 移动技术(程序浮动技术)
- 碎片:内存中的小空闲区,移动分区来解决内存外零头问题。
- 当未分配区表中找不到足够大的空闲区来装入新进程时,我们使用移动技术来完成内存紧凑,实现方法:
- 全部移动到一侧
- 移动直到有足够大的空闲区
- 需要动态重定位支撑:静态重定位无法解决内存外零头
- 问题:移动技术有极大的系统开销,而且并不是任何时间下都可以进行的,比如通道或DMA等按照绝对物理地址交换信息时。
3.5.2. 对换技术
- 对换技术广泛应用于分时系统的调度,用来解决内存容量不足的问题,也可以应用于批处理系统,以平衡系统负载。
- 如果当前一个或多个驻留进程都处于阻塞态,此时选择其中一个进程,将其暂时移出内存,腾出空间给其他进程使用;同时把磁盘中的某个进程换入内存,让其投入运行,这种互换称为对换。
- 被对换出去的进程的状态会调整为就绪态,并且通知存储管理程序,一旦内存可用,立即将该进程对换回内存。
- 对换技术关键点
- 被对换进程:通常系统选择时间片耗尽或优先级较低的进程对换出去。
- 对换的进程信息:将数据区和堆栈通过文件系统转换为特殊文件保存。
- 被对换的时机:
- 批处理系统中:进程需要扩充内存空间但不能被满足时
- 分时系统:
- 时间片结束时
- 执行I/O操作时
- 对换需要访问磁盘,是I/O集中型操作,但是操作系统可以让计算型任务与对换并行,不会造成系统效率显著下降。
- 详见P205
3.5.3. 覆盖技术
- 移动和对换技术解决因多个程序存在而导致内存区不足问题。
- 但是如果程序长度超过物理内存的总和,或者超出固定分区大小,则会出现内存永久性短缺,大程序无法运行,解决方案是覆盖技术。
- 覆盖是指程序执行过程中程序的不同模块在内存中相互替代,以达到小内存执行大程序的目的。
- 基本的实现技术是把用户空间分成固定区和一个或多个覆盖区,把控制或不可覆盖的部分放到固定区,其余按照调用结构以及先后关系分段并存放在磁盘上,运行时一次调入覆盖区。
- 不足是将存储管理工作转给程序员,他们必须根据可用物理内存空间来设计和编写程序。
4. 虚拟存储器的概念
- 之前所介绍的存储管理,我们称为实存管理,必须为进程分配足够内存空间,装入其全部信息,否则无法运行。
4.1. 虚拟存储器思想的提出
- 主存容量限制带来诸多不便
- 用户编写程序必须考虑主存容量限制
- 多道程序设计的道数受到限制
- 用户编程行为分析
- 全面考虑各种情况,执行时有互斥性
- 顺序性和循环性等空间局部性行为
- 某一阶段执行的时间局部性行为
- 因此可以考虑部分调入进程内容
4.1.1. 分区存储的限制
- 每个进程(每个连续逻辑地址空间)必须获得物理地址上的完全连续,突破:分区,分段
- 必须一次性满足满足每个进程运行时的全部内存需求,突破:虚拟存储,部分装入对换
- 注:一旦发生缺页,则会从运行态调整到阻塞态,可能会导致部分进程的速度被拖慢,但是整体效率会提高
4.1.2. 程序运行的局部性原理
- 在一个周期内,这个进程在运行时会集中访问一些存储区:某存储单元被访问,改单元机器相邻存储单元很可能会被访问(空间局部性),或者最近访问过的存储单元很快又能被访问(时间局部性)。
- 根据程序运行的局部性原理,会保证程序的访问效率比较高,缺页率相对低,以时间换取空间
4.2. 虚拟存储器的基本思想
- 部分装入:存储管理把进程全部信息放在辅存中,执行时先将其中一部分装入主存,以后根据执行行为随用随调入
- 按需调出:如主存中没有足够的空闲空间,存储管理需要根据执行行为把主存中暂时不用的信息调出到辅存上去
4.3. 虚拟存储器的实现思路
- 需要建立与自动管理两个地址空间
- (辅存)虚拟地址空间:容纳进程装入
- (主存)实际地址空间:承载进程执行
- 对于用户,计算机系统具有一个容量大得多的主存空间,即虚拟存储器
4.4. 虚拟存储器
- 在具有层次结构存储器的计算机系统中,自动实现部分装入和部分替换功能,能从逻辑上为用户提供一个比物理内存容量大得多的、可寻址的内存储器。
- 虚拟存储器是一种地址空间扩展技术,通常意义上对用户编程是透明的,除非用户需要进行高性能的程序设计
- 逻辑地址:进程角度看到的逻辑内存单元。
- 物理地址:从处理器角度看到的物理内存单元。
- 对换技术以进程为单位,虚存管理以页或段为单位。
5. 存储管理的硬件支撑
5.1. 存储器的组织层次
- 越处于顶端,访问速度越快,容量越小,单位字节价格会越高。我们根据实际情况,选择使用什么样子的存储器。
- 寄存器、缓存和内存属于操作系统存储管理的范畴,掉电后信息丢失。
- 磁盘和磁带属于稳健管理和设备管理的管辖对象,信息永久保存。
- 可执行程序必须被保存在内存中,与设备交换的信息也依托于内存地址空间。
- 由于程序处理数据时存在顺序性和局部性,故执行时仅需调入当前运行使用的一部分,其他部分待需要时再逐步调入。
5.2. 存储管理涉及的存储对象
- 存储管理是OS管理主存储器的软件部分
- 为获得更好的处理性能,部分主存程序与数据(特别是关键性能数据)被调入Cache,存储管理需要对其进行管理,甚至包括对联想存储器的管理
- 为获得更大的虚拟地址空间,存储管理需要对存放在硬盘、固态硬盘、甚至网络硬盘上的虚拟存储器文件进行管理,首选固态硬盘
5.3. 高速缓存存储器(Cache)
- Cache是介于CPU和主存储器间的高速小容量存储器,由静态存储芯片SRAM组成,容量较小但比主存DRAM技术更加昂贵而快速,接近于CPU的速度
- CPU往往需要重复读取同样的数据块,Cache的引入与缓存容量的增大,可以大幅提升CPU内部读取数据的命中率,从而提高系统性能
5.3.1. 高速缓存存储器的构成
- 高速缓冲存储器通常由高速存储器、联想存储器、地址转换部件、替换逻辑等组成
- 联想存储器:根据内容进行寻址的存储器
- 地址转换部件:通过联想存储器建立目录表以实现快速地址转换。命中时直接访问Cache;未命中时从内存读取放入Cache
- 替换逻辑部件:在缓存已满时按一定策略进行数据块替换,并修改地址转换部件
- MMU:硬件,存储管理单元
5.3.2. 高速缓存存储器的组织
- 由于CPU芯片面积和成本,Cache很小
- 根据成本控制,划分为L1、L2、L3三级
5.3.3. 高速缓存存储器的分级
- L1 Cache:分为数据缓存和指令缓存;内置;其成本最高,对CPU的性能影响最大;通常在32KB-256KB之间
- L2 Cache:分内置和外置两种,后者性能低一些;通常在512KB-8MB之间
- L3 Cache:多为外置,在游戏和服务器领域有效;但对很多应用来说,总线改善比设置L3更加有利于提升系统性能
5.3.4. 早期奔腾处理器架构
- Intel在最初的奔腾处理器中只包含L1 Cache(含Code Cache和Data Cache)
5.3.5. 奔腾4处理器架构
- 奔腾4的处理器中包含L1 Cache和L2 Cache
5.3.6. i5处理器架构
5.3.7. i7处理器架构
- i7处理器中包含L1至L3三级Cache,如果是包含了三级Cache,那么意味着CPU与Cache之间的链接在CPU内部,Core i7处理器方案是将L3 Cache设计为包含在处理中的多个核心Cache
5.4. 地址转换/存储保护的硬件支撑
- 限长寄存器来检查越界中断
- 相加体现了动态重定位
- 比较体现了存储保护
5.5. 存储管理与硬件支撑
- 鉴于程序执行与数据访问的局部性原理,存储管理软件使用Cache可以大幅度提升程序执行效率
- 动态重定位、存储保护等,若无硬件支撑在效率上是无意义的,即无实现价值
- 无虚拟地址中断,虚拟存储器无法实现
- 无页面替换等硬件支撑机制,虚拟存储器在效率上是无意义的
5.6. 虚拟存储与硬件支撑
- 操作系统的存储管理依靠底层硬件支撑来完成任务,该硬件是存储管理部件(Memory Managment Unit, MMU),提供地址转换和存储保护并支持虚存管理和多任务管理。
- MMU由一组集成电路芯片组成,逻辑地址作为输入,物理地址作为输出,直接送达总线,对内存单元进行寻址。
- 主要功能:P217
- 管理硬件页表基址寄存器
- 分解逻辑地址
- 管理快表
- 访问页表
- 发出异常
- 管理特征位
6. 页式存储管理
6.1. 页式存储管理的基本原理
- 页面:金层逻辑地址空间分成大小相等的区,每个区称为页面或页,页号从0开始编号。比如出版一本书,出版受到页大小影响,最后由若干页组成,一般大小为4KB
- 页框:又称页帧,把内存物理地址空间分成大小相等的区,其大小与页面大小相等,每个区都是一个页框(物理块),块号从0开始。
- 逻辑地址:分页存储器的逻辑地址由页号 + 页面偏移组成(地址总线32位)
- 页号:32-12 = 20位,则包含页2202^{20}220位
- 页面偏移:页面大小为4KB,则需要12位
- 内存页框表:该表长度取决于内存划分的物理块数,表项中给出物理块使用情况,0为空闲,1为占用,有的系统还会添加保护位、脏位等等。
- 页表:将页装入到内存中,页未必连续,我们需要为每一个页面设立一个重定向寄存器,这个寄存器的集合就是页表。
- 数学角度:页面号→页框号页面号 \rightarrow 页框号页面号→页框号
- 系统设置页表基址寄存器,存放当前运行进程的页表起始地址。
- 物理地址=页框号∗块长+页内偏移物理地址 = 页框号 * 块长 + 页内偏移物理地址=页框号∗块长+页内偏移,实际转换时,我们将页内偏移作为低地址,根据页号从页表中查找到页框号并作为高地址即可。
- 页表不存储页号,只存储页框号和相应标志位
- 页式存储产生的碎片是内部碎片
- 可以类比固定分区
- 比如19KB的程序,加载到页大小为4KB中,会产生1KB的内存内零头。
- 页号p
- 页内偏移d
- 页框号b
6.2. 页式存储管理中的地址
- 页式存储管理的逻辑地址由两部分组成,页号和单元号(页内偏移),逻辑地址形式:
- 页式存储管理的物理地址也有两部分组成:页架号(页框号)和单元号(页内偏移),物理地址形式:
- 地址转换可以通过查页表完成
- 用户不必关心页的具体存储,系统帮助用户完成从页号/页架号映射到物理地址来完成。
6.3. 页式存储管理的地址转换例子
- 逻辑地址页号,作为偏移量到页表中进行偏移,得到页架号(页框号)。
- 对页架号(页框号)进行二进制移位操作(补充12个0),映射到物理空间中本页的首地址,然后根据offset(单元号)在页内进行偏移,从而获取到绝对地址(物理地址:从处理器角度看到的物理内存单元)中的值。
6.4. 页式存储管理的内存分配/去配
- 页式存储管理,系统要建立一张内存物理块表,用来记录页框状态,管理物理内存的而分配,所包含的信息包含内存总块数、哪些为空闲块、哪些已经分配以及分配给哪个进程等。
- 最简单方法是用一张位示图来记录主存分配情况,使用一位来标记一个页框的使用或空闲的状态(压缩的思想)
- 如果够,则去查找一个标记为0的装入
- 如果不够,采用一定的策略
- 建立进程页表维护主存逻辑完整性
- 分页存储管理页框分配算法:
- 进行内存分配时,先检查空闲块数是否满足用户进行要求
- 若不能则使进程等待。
- 若能则查位示图,将位0置为占用标志,从空闲块数中减去本次占用快熟,找到对应的页框号,写入页表。
- 归还时逆操作。
- 进行内存分配时,先检查空闲块数是否满足用户进行要求
6.5. 页的共享
- 页式存储管理能够实现多个进程共享程序和数据
- 数据共享:不同进程可以使用不同页号共享数据页,但是必须解决共享信息保护问题,常用的是在页表中添加标记位。
- 程序共享:不同进程必须使用相同页号共享代码页,共享代码页中的(JMP <页内地址>)指令,使用不同页号是做不到,进程一和二都要跳转到页内的位置,程序共享要求页号相同。
6.6. 页式存储管理的地址转换
快表TLB,Translation Look_aside Buffer
6.6.1. 页式存储管理的地址转换代价
- 页表放在主存: 每次地址转换必须访问两次主存
- 按页号读出页表中的相应页架号
- 按计算出来的绝对地址进行读写
- 存在问题:降低了存取速度
- 解决办法:利用Cache存放部分页表,即快表
6.6.2. 页式存储管理的快表
- 为提高地址转换速度,设置一个专用的高速存储器,用来存放页表的一部分
- 快表:存放在高速存储器中的页表部分,快表表项:页号+页架号
- 这种高速存储器是联想存储器(TLB),即按照内容寻址,而非按照地址访问,根据页号进行寻址。
6.6.3. 基于快表的地址转换流程
- 按逻辑地址中的页号查快表
- 若该页已在快表中,则由页架号和单元号形成绝对地址
- 若该页不在快表中,则再查主存页表形成绝对地址,同时将该页登记到快表中
- 当快表填满后,又要登记新页时,则需在快表中按一定策略淘汰一个旧登记项
- 快表可以理解为一个简单的账本
6.6.4. 引入快表后的地址转换代价
- 采用快表后,可以加快地址转换速度
- 假定主存访问时间为200毫微秒,快表访问时间为40毫微秒,查快表的命中率是90%,平均地址转换代价为(200+40)∗90%+(200+200+40)∗10%=260(200+40)*90\%+(200+200+40)*10\%=260(200+40)∗90%+(200+200+40)∗10%=260毫微秒
- 比两次访问主存的时间(400毫微秒)下降了36%
6.6.5. 多道程序环境下的进程表
- 进程表中登记了每个进程的页表
- 进程占有处理器运行时,其页表起始地址和长度送入页表控制寄存器
页表长度就是页表项的数量
6.6.6. 多道程序环境下的地址转换
- 页表控制寄存器存储了当前的页表的地址和长度
- 页表控制寄存器和进程表是有关联的,所有进程在进程表中都有一项,当这个进程占据CPU时,这个进程就占据页表控制寄存器。
- 不使用快表:首先从逻辑地址中,提取出页号,比较页号是否出现越界中断,如果没有越界,则根据页表向下偏移到对应的块号,提取出页表信息和页框号,页框号结合单元号,得到物理地址
- 快表:不是从页表中查找,而是优先从快表中查询块号。
6.7. 多级页表
6.7.1. 多级页表的概念
- 现代计算机普遍支持232−2642^{32}-2^{64}232−264容量的逻辑地址空间,采用分页存储管理时,页表相当大,以Windows为例,其运行的Intel x86平台具有32位地址,规定页面4KB(2122^{12}212)时,那么,4GB(2322^{32}232)的逻辑地址空间由1MB(2202^{20}220)个页组成,若每个页表项占用4个字节,则需要占用4MB(2222^{22}222)连续主存空间存放页表。系统中有许多进程,因此页表存储开销很大。
- 做法:把整个页表分割成许多小页表,每个称为页表页,它的大小与页框长度相同,于是每个页表页含有若干页表表项。
- 页表项从0开始编号,允许放到不连续的页框中,为了找到页表页,建立地质索引,称为页目录表。
- 系统为每一个进程建立一张页目录表,他的每一个表项指出一个页表页,而页表页的每个表项给出页面和页框的对应关系。
- 逻辑地址结构有三部分组成:页目录、页表页和位移
- 解决页表页如何占用内存空间的问题,解决方法:进程运行设计到的页面的页表页放置在内存中,其他页表页使用时动态调入,因此需要添加标志位指示是否调入内存。
6.7.2. 多级页表地址转换过程
6.7.3. 多级页表结构的本质
- 多级不连续导致多级索引。
- 以二级页表为例,用户程序的页面不连续存放,要有页面地址索引,该索引是进程页表;进程页表又是不连续存放的多个页表页,故页表页也要页表页地址索引,该索引就是页目录。
- 页目录项是页表页的索引,而页表页项是进程程序的页面索引。
6.8. 反置页表(IPT)
- 页表设计的一个重要缺陷是页表的大小与虚拟地址空间的大小成正比
- 对于一个128MB的计算机,如果页面尺寸为4KB,页表项大小为4B,那么其反置页表只占有128KB的内存。
- 通过这个结构,哈希表和反向表中只有一项对应于一个实存页(面向实存),而不是虚拟页(面向虚存)。因此,不论由多少进程、支持多少虚拟页,页表都只需要实存中的一个固定部分。
- 正向页表(名单)、反置页表(现场坐的是谁)
- 正向页表:以页号为索引(隐含),完整连续排列,页表项中不含页号,每个进程单独一个页表
- 反置页表:以页框号为索引(隐含),完整连续排列,每个页框填入的是哪个进程的哪个页号,索引进程共用一个反置页表。其页表项不包含页框号
6.8.1. 反置页表的提出
- 页表及相关硬件机制在地址转换、存储保护、虚拟地址访问中发挥了关键作用,为页式存储管理设置专门硬件机构
- 内存管理单元MMU:CPU管理虚拟/物理存储器的控制线路,把虚拟地址映射为物理地址,并提供存储保护,必要时确定淘汰页面
- 反置页表IPT:MMU使用的数据结构
6.8.2. 反置页表的基本设计思想
- 针对内存中的每个页架建立一个页表,按照块号(页架号)排序
- 表项包含:正在访问该页框的进程标识、页号及特征位,和哈希链指针等
- 用来完成内存页架到访问进程页号的对应,即物理地址到逻辑地址的转换
6.8.3. 反置页表的页表项
- 页号:虚拟地址页号
- 进程标志符:使用该页的进程号(页号和进程标志符结合起来标志一个特定进程的虚拟地址空间的一页)
- 标志位:有效、引用、修改、保护和锁定等标志信息
- 链指针:哈希链,如果某个项没有链项,则该域为空(允许用一个单独的位来表示)。
6.8.4. 反置页表的逻辑地址
- 进程标识符:使用该页的进程。
- 页号:虚拟地址页号部分,页号和进程标志符结合起来标志一个特定的进程的虚拟地址空间的一页。
- 页内位移
6.8.5. 反置页表的地址转换
上图4-10中,以页框号为索引,记录当前页框中存储的是哪个进程的哪个页
- 反置页表地址转换过程如下:
- 需要访问内存地址时,地址转换机制用进程标识符与页号作为输入,由哈希函数先映射到哈希表,哈希表项存放的是指向IPT表项的指针
- 此指针可能就是指向匹配的IPT表项
- 如果不是则遍历哈希链直至找到进程标识符与页号均匹配的IPT表项:因为多个页号通过哈希值可能得到了相同的哈希值,所以我们选择使用哈希链。
- 而此表项的**序号(索引)**就是页框号,通过拼接页内位移便可生成物理地址。
- 若在反置页表中未能找到匹配的IPT页表项,说明此页不在内存,触发缺页异常,请求操作系统通过页表调入:发生缺页中断时需要多访问一次磁盘,速度会比较慢。
- 需要访问内存地址时,地址转换机制用进程标识符与页号作为输入,由哈希函数先映射到哈希表,哈希表项存放的是指向IPT表项的指针
- 页框号是根据公式换算出来的:xi=x0+4∗ix_i = x_0 + 4 * ixi=x0+4∗i
6.8.6. 反置页表
线性反置页表 | 反置页表 |
---|---|
哈希线性反置页表 | 主存分配的位示图和链表方法 |
6.8.7. 反置页表下的地址转换示意
- 未显示选择淘汰页面,同样由MMU完成
- 使用哈希提高性能->不必遍历
7. 段式存储管理
- 段式存储管理基于可变分区存储管理原理。
7.1. 程序分段结构
- 高级语言采用模块化程序设计方法。应用程序由若干程序段(模块)组成,如由主程序段(M)、子程序段(X)、数据段(D)和工作区段(W)组成,每一段都从0开始编制,各有各自名字和长度且实现不同功能。
- 编译后段间地址是不连续的,段内地址是连续的。
7.2. 段式存储逻辑地址
- 分段存储器的逻辑地址由两部分组成:段号+段内偏移
- 页式存储管理中页的划分对程序员不可见。
- 段式存储管理中段的划分对程序员可见。
7.3. 段式存储的段表
- 存储分配时,应该为进入内存的作业建立段表,各段在内存中的情况有段表来记录,包含了段号、段起始长度和长度。
- 撤销进程时,回收所占用的内存空间,并清除此进程的段表。
- 段表表项实际上起到了基址/限长寄存器的作用,设置段表控制寄存器
7.4. 段式存储管理的基本思想
- 段式存储管理基于可变分区存储管理实现,一个进程要占用多个分区
- 硬件需要增加一组用户可见的段地址寄存器(代码段、数据段、堆栈段,附加段),供地址转换使用
- 存储管理需要增加设置一个段表,每个段占用一个段表项,包括:段始址、段限长,以及存储保护、可移动、可扩充等标志位
7.5. 段式存储管理的地址转换流程
使用终端来完成
7.6. 段的共享
- 如果多个进程段表中的某段指向内存相同的地址,内存中以该处为起始地址的某段就可以被共享。
- 对共享段的信息必须进行保护,如规定只能读出不能写入,不满足保护条件则产生保护中断
- 为了方便共享,系统中常常建立一张共享段表记录所有共享段,包含段名、共享计数、段长、段首址、保护位等。
8. 分页和分段的寻址计算
8.1. 分段和分页的比较
- 分段是信息的逻辑单位,由源程序的逻辑结构所决定,用户可见
- 段长可根据用户需要来规定,段起始地址可从任何主存地址开始。
- 分段方式中,源程序(段号,段内位移)经连结装配后地址仍保持二维结构。
- 分页是信息的物理单位,与源程序的逻辑结构无关,用户不可见,
- 页长由系统确定,页面只能以页大小的整倍数地址开始
- 分页方式中,源程序(页号,页内位移)经连结装配后地址变成了一维结构
8.2. 分页:逻辑地址到物理地址
9. 段页式存储管理
9.1. 段页式存储管理的基本思想
- 段式存储管理可以基于页式存储管理实现
- 每一段不必占据连续的存储空间,可存放在不连续的主存页架中
- 能够扩充为段页式虚拟存储管理
- 装入部分段,或者装入段中部分页面
9.2. 段页式存储管理的段表和页表
- 既有段表,也有页表
- 段表中存储的是页表和页表始址
9.3. 段页式存储管理的地址转换
10. 页式虚拟存储管理
10.1. 页式虚拟存储管理的基本原理
- 将进程信息副本存放在外存中,当它被调度投入运行时,程序和数据没有全部装入内存,仅装入当前使用页面,进程执行过程中访问到不再内存的页面时,再由系统自动调入。
- 页式虚拟存储是现代OS的主流存储管理技术
- 请求页式存储管理:由于页面在需要时是根据进程请求装入内存的
- 请求页式存储管理
- 优点:进程的程序和数据可按页分散存储在内存中,有利于内存利用率和多道程序运行
- 缺点:需要硬件支持、处理缺页中断、机器成本增加、系统开销加大,页内存在碎片。
10.1.1. 页式虚拟存储管理的页表
- 需要扩充页表项,至少包含如上信息,指出:
- 主存驻留标志:指出页面是否已经装入内存。1表示在内存中可以被正常访问,0表示不能立即访问,产生缺页异常。
- 修改位:被设置后,该页被调出内存前必须先写回磁盘,保障数据一致性
- 保护位:限制页面访问权限
- 引用位:在页面被引用无论是读写时设置,用来帮助系统进行页面淘汰。
- 内存块号:页面对应的页框号,用来地址转换。
- 32位操作系统:32bit标识一个页表项
- 页号是隐含信息,不是直接存储的信息。
10.2. 页式虚拟存储管理的实现
- CPU处理地址
- 若页驻留,则获得块号形成绝对地址
- 若页不在内存,则CPU发出缺页中断
- OS处理缺页中断
- 若有空闲页架,则根据辅存地址(虚存)调入页,更新页表与快表等
- 若无空闲页架,则决定淘汰页,调出已修改页,调入页,更新页表与快表
10.2.1. 页式虚拟存储管理的地址转换
- 本指令没有被处理完,是在查找地址的时候发生的中断,所以要回退指令执行。
缺页中断完成后要重新执行被中断指令。
10.2.2. 页式虚拟存储管理的地址转换全过程
- 地址转换过程
- MMU接收CPU传送来的逻辑地址并自动按页面大小把它从某位起分解成两部分:页号和页内位移。
- 以页号为索引快速搜索快表TLB。
- 如果命中,立即送出页框号,并与贾内位移拼接成物理地址,然后进行访问权限检查,如获通过,进程就可以访问物理地址。
- 如果不命中,由硬件以页号为索引搜索页表,页表基址由硬件页表基址寄存器指出。
- 如果页表被命中,说明访问页面已在内存中,可送出页框号,并与页内位移拼接成物理地址,然后进行访问权限检查,如获通过,进程就可以访问物理地址,同时要把这个页面和页框信息装入快表TLB,以备再次访问。
- 如果发现页表中的对应页面失效,MMU发出缺页异常,请求操作系统进行处理,MMU工作到此结束。
- MMU发现缺页并发出缺页异常,存储管理接收控制,进行缺页异常处理的过程如下:
- 挂起请求调页的进程。
- 根据页号搜索外页表,找到存放此页的磁盘物理地址。
- 查看内存是否有空闲页框,如有则分配一个,转(6)。
- 如果内存中无空闲页框,按照替换算法选择淘汰页面,检查其是否被写过或修改过,若否则转(6),若是则转(5)。
10.2.3. TLB(快表)
Note:快表存储正在进行的进程的若干(非连续)的页表项,其意义在于:快表访问速度高于内存,减少访问内存的次数,提高也是寻址效率
11. 页面调度
- 当主存空间已满而又需要装入新页时,页式虚拟存储管理必须按照一定的算法将已在主存的一些页调出去
- 选择淘汰页的工作成为页面调度
- 选择淘汰页的算法称为页面调度算法
11.1. 交换区
- 操作系统需要在磁盘上定义一个交换区用来保存临时换出的页面,交换区由磁盘上的一个或多个磁盘分区组成。
- 简单做法:进程启动时,留出大小和进程一样大的交换分区。
- 与进程对应的是其交换区的磁盘地址,即进程映像所保存的位置,这一信息记录在进程的外页表中。
- 问题:进程启动可能会在增大,解决:将正文、数据和堆栈分别保留交换区,并且多留几块。
- 交换区管理重点是维护交换区映射表,记录所有的呗换出内存的页面在交换区中的位置,以便需要时换入,第二次被换出内存时,当且仅当页面修改过才再次写入,否则直接抛弃。
11.2. 页面装入策略和清除策略
- 页面装入策略用来解决何时将页面装入内存
- 请页式:当产生缺页异常时调入页面
- 在替换时只有发生了更改才写回。
- 优点:只有被访问页面才会被调入,节省内存
- 缺点:缺页异常处理次数多,系统开销大。
- 预调式:在使用页面前预先调入内存,操作系统根据某种算法动态预测进程最可能访问的界面,每次调入若干页面。
- 在替换前需要将他们都写回磁盘,可成批进行。
- 优点:减少磁盘I/O的启动次数,节省寻道和搜索时间。
- 缺点:如果调入的大多数界面都没有被使用则效率很低。
11.3. 页面分配策略
- 请求分页虚存管理可能在缺页方面付出很大的代价,需要确定页面调度算法的作用范围是此进程的页面,还是内存中的所有进程的页面。
- 全局替换:不考虑进程属主
- 局部替换:仅限于进程本身
- 分配方式
- 固定分配:进程生命周期中保持页框数固定不变,有平均分配、比例分配、优先权分配等方式。
- 可变分配:进程生命周期中所分得的页框数可变。
- 缺页率较高,说明局部性较差,可以适度提高分配的页框数。
- 缺页率较低,可以适度降低分配的页框数
- 工作集(驻留集):每个进程维护的一组页面。
- 可变分配配合局部替换可以克服全局替换的缺点。
11.3.1. 固定分配,本地范围
- 分配给进程的帧数是固定的
- 从分配给过程的框架中选择要替换的页面
11.3.2. 变量分配,全局范围
- 分配给进程的帧数是可变的
- 从所有框架中选择要替换的页面
- 最容易实现
- 被许多操作系统采用
- 操作系统保留空闲帧列表
- 发生页面错误时,将空闲帧添加到驻留的进程集
- 课本224全局页面替换策略和229局部页面替换策略
11.3.3. 变量分配,本地范围
- 分配给进程的帧数是可变的
- 从分配给过程的框架中选择要替换的页面
- 添加新流程后,请根据应用程序类型,程序请求或其他条件分配页框数量
- 发生页面错误时,请从发生故障的进程的常驻集中选择页面。
- 不时重新评估分配
11.4. 缺页中断率
- 页面调度算法设计不当,会出现(刚淘汰的页面立即又要调入,并如此反复),这种现象称为抖动或颠簸,主要原因是内存中同时运行的进程太多,而分配给每个进程的页框太少。
- 假定进程PPP共有nnn页,系统分配页架数mmm个
- PPP运行中成功访问次数为SSS,不成功访问次数为FFF,总访问次数A=S+FA = S + FA=S+F
- 缺页中断率定义为: f=FAf = \frac{F}{A}f=AF
- 缺页中断率是衡量存储管理性能和用户编程水平的重要依据
11.4.1. 缺页中断率的影响因素
- 分配给进程的页框数:可用页框数越多,则缺页中断率就越低
- 页面的大小:页面尺寸越大,则缺页中断率就越低
- 页面替换算法:算法的优劣影响缺页异常次数
- 程序特性:程序局部性要好,它对缺页中断率有很大影响。
11.4.2. 用户编程的例子
不同的访问方式会到导致出现缺页情况的。
11.5. 全局页面替换策略
11.5.1. OPT页面调度算法(Belady算法)
- 算法描述:当要调入新页面时,首先淘汰以后不再访问的页,然后选择距现在最长时间后再访问的页。
- 该方法由Belady提出,称为BeLady算法,又称最佳算法(OPT)
- OPT只可以模拟,不可以实现,因为永远无法预知之后的事情。
- 这种算法可以用作衡量其他各种算法的标准。
11.5.2. 先进先出页面调度算法(FIFO)
- 算法描述:首先淘汰最先调入主存的那一页,或者说主存驻留时间最长的那一页(常驻的除外)
- 模拟的是程序执行的顺序性,有一定合理性,并不能很好模拟程序的循环性。
- 根据估计,缺页中断率也是最佳算法的2-3倍。
- FIFO算法的Belady异常:更多的页框导致了更高的缺页率,页框为3和4的时候
11.5.3. 页面缓冲算法
页面缓冲算法是对FIFO替换算法的一种改进
算法策略
- 系统维护两个FIFO队列,被替换的页面添加到如下两个队列中
- 修改页面队列
- 非修改(空闲)页面队列
- 替换的页面仍保留在内存中
- 如果再次引用,则找回的费用很少
- 当修改页面队列中的页面到达一定数量后,页面以群集形式写回磁盘,并把空闲页框加入非修改页面队列尾部。
11.5.4. 最近最少用LRU页面调度算法
- 淘汰最近一段时间较久未被访问的那一页,即那些刚被使用过的页面,可以马上还要被使用到。
- 模拟了程序执行的局部属性,既考虑了循环性,又兼顾了顺序性
- 严格实现的代价大(需要维持特殊队列——页面淘汰队列),实现需要硬件支持。
- LRU算法得到模拟实现:模拟是相当的不严谨,非常粗粒度的一个模拟。
- 引用位法:每页建立一个引用标志,供硬件使用,设置一个时间间隔中断,发生时将页引用标志置0,访问页面时将引用标志置为1,页面置换的时候选择标志为0的页面,在选中淘汰页时,将所有的页的引用为全部置为0
- 计数法:每页添加页面引用计数器,根据计数器选择最小的,定时清空页面引用计数器
- 计时法:每页添加计时单元,引用时,将绝对时间记录进入计时单元,定时清空计时单元。
- 老化算法:设置一个多位寄存器,被访问将最左侧设置为1,定时将寄存器右移,缺页中断时找到最小值的寄存器界面淘汰,被采用较多。
- 上图使用老化算法
- T3时刻替换P2页面,因为和P1他们在3时刻都没有被访问,但是2时刻P1被访问了
11.5.5. 第二次机会页面替换算法(SCR,Second Chance Replacement)
- 将FIFO算法和页表中引用位结合。
- 算法描述:
- 首先检查FIFO页面队列队首
- 引用位为0,则淘汰该页面
- 引用位为1,将引用位清0,并将该页面移到队列尾部
- 如果第一遍全为1,则循环
- 首先检查FIFO页面队列队首
11.5.6. 最不常用LFU的页面调度算法
- 淘汰最近一段时间内访问次数较少的页面,对OPT的模拟性比LRU更好
- 算法过程:基于时间间隔中断,并给每一页设置一个计数器,时间间隔中断发生后,所有计数器清0,每访问页1次就给计数器加1,选择计数最小的页面淘汰
11.5.7. 时钟CLOCK页面调度算法
- CLOCK就是SCR结合FIFO形成循环,使用页引用标志位。
- 算法描述:采用循环队列机制构造页面队列,形成了一个类似钟表面的环形表,队列指针则相当于钟表面上的表针,指向可能要淘汰的页面
11.5.7.1. CLOCK算法的工作流程
- 页面调入主存时,其引用标志位置为1
- 访问主存页面时,其引用标志位置为1
- 淘汰页面时,从指针当前指向的页面开始扫描循环队列
- 把所遇到的引用标志位是1的页面的引用标志位清0并跳过
- 把所遇到的引用标志位是0的页面淘汰,指针推进一步
11.5.7.2. CLOCK算法的例子
灰色和星号代表1,蓝色和无星号代表0
- 发生命中,指针不动
- 指针运动是为了寻找替换的页
- 1->5其实是循环一轮,如果为1,指针不替换,但是会将标志位置为0
- 当一页被替换时,指向下一帧。虽然早就进来,但是最近使用过,所以不急着替换
- 当需要替换一页时,扫描缓冲区,查找使用位被置为0的一帧。
- 每当遇到一个使用位为1的帧时,就将该位重新置为0;
- 如果在这个过程开始时,所有帧的使用位均为0,选择遇到的第一个帧替换;
- 如果所有帧的使用位为1,则指针在缓冲区中完整地循环一周,把所有使用位都置为0,并且停留在最初的位置上,替换该帧中的页。
11.5.7.3. 第三次机会时钟替换算法:结合引用位和修改位
- 一共四种情况:r是引用位,m是修改位
- 最近未被引用,未被修改:r=0,m=0
- 最近被引用,未被修改:r=1,m=0
- 最近未被引用,被修改:r=0,m=1
- 最近被引用,被修改:r=1,m=1
- 算法描述
- 扫描,不修改引用位,找到第一个r=0,m=0的页面替换
- 如果1没有找到,则从原位置开始,修改引用位,查找r=0,m=1的页面替换写回
- 如果2没有找到,重复1或2操作。
11.5.8. 不同算法性能比较
整体上来讲FIFO > CLOCK > LRU > OPT
11.6. 局部页面替换算法(不考)
P229-233
11.6.1. 局部最佳页面替换算法(MIN)
- 实现思想:进程在时刻t访问某页面,如果该页面不在主存中,导致一次缺页,把该页面装入一个空闲页框
- 不论发生缺页与否,算法在每一步要考虑引用串,如果该页面在时间间隔(t, t+τ)内未被再次引用,那么就移出;否则,该页被保留在进程驻留集中
- t为一个系统常量,间隔(t, t+τ)称作滑动窗口 。例子中τ=3,双闭区间
11.6.2. 工作集模型和工作集置换算法(WS)
- 进程工作集指"在某一段时间间隔内进程运行所需访问的页面集合"
- 实现思想:工作集模型用来对局部最佳页面替换算法进行模拟实现,不向前查看页面引用串,而是基于程序局部性原理向后看
- 任何给定时刻,进程不久的将来所需主存页框数,可通过考查其过去最近的时间内的主存需求做出估计
11.6.2.1. 进程工作集
- 指"在某一段时间间隔内进程运行所需访问的页面集合",W(t,Δ)表示在时刻t-Δ到时刻t之间( (t-Δ,t))所访问的页面集合,进程在时刻t的工作集
- Δ是系统定义的一个常量。变量Δ称为"工作集窗口尺寸",可通过窗口来观察进程行为,还把工作集中所包含的页面数目称为"工作集尺寸"
- Δ=3
11.6.2.2. 示例
工作集:程序在运行过程时,程序的局部性是变更的。有的部分是比较陡的,大量调入,然后平稳期,访问替换进来的页们。
11.6.3. 模拟工作集替换算法
11.6.4. 缺页频率替换算法
- 定义页面错误率的上限U和下限L。
- 如果缺页率高于U,则为进程分配更多页框。
- 如果缺页率低于U,则为进程分配更少页框。
- 驻留集的大小应该和工作集大小W紧密相关的。
- 如果PFF(缺页率)>U并且没有更多可用帧,我们将暂停该过程,ROI(Return On Investment)
页框的大小是需要根据程序动态调整的。
11.6.5. 通过工作集确定驻留集大小
- 监视每个进程的工作集,只有属于工作集的页面才能留在主存;
- 定期地从进程驻留集中删去那些不在工作集中的页面;
- 仅当一个进程的工作集在主存时,进程才能执行。
12. 段式虚拟存储管理
12.1. 段式虚拟存储管理的基本思想
- 把进程的所有分段都存放在辅存中,进程运行时先把当前需要的一段或几段装入主存,在执行过程中访问到不在主存的段时再把它们动态装入
- 段式虚拟存储管理中段的调进调出是由OS自动实现的,对用户透明
- 与段覆盖技术不同,它是用户控制的主存扩充技术,OS不感知
12.2. 段式虚拟存储管理的段表扩充
- 段表的扩充
- 特征位: 00(不在内存)01(在内存)11(共享段)
- 存取权限: 00(可执行)01(可读)11(可写)
- 扩充位: 0(固定长)1(可扩充)
- 标志位: 00(未修改)01(已修改)11(不可移动)
12.3. 段式虚拟存储管理的地址转换
13. 段页式虚拟存储管理
13.1. 段页式虚拟存储基本原理
- 虚地址以程序的逻辑结构划分为段,这是段页式的段式特征。
- 实地址划分层位置固定、大小相同的页框(块),这是段页式的页式特征。
- 将每一段的线性地址空间划分成与页框大小相同的页面,段页式的特征
- 逻辑地址由段号s、段内页号p和页内偏移d组成
- 对用户,虚拟地址由段号s和段内位移d’组成
- 系统内部将d’分解为p和d,d’ = p * 块长 + d
- 请求段页式虚拟存储管理的数据结构比较复杂,包含作业表、段表和页表三部分。
- 作业表:进入系统的作业和作业段表的起始地址
- 段表:是否在内存、段页表起始地址
- 页表:是否在内存、对应内存块号
13.2. 段页式虚拟存储管理的地址转换
14. 存储管理方案以及虚存页面替换算法小结
15. 补充:关于快表问题
有效位为0,不指引
- Valid并不全表示页表项是否在主存中
- 发生页面替换的时候,被替换的页如果在快表中,则其的valid位置0或者将该页删除。
16. Linux虚拟存储管理
16.1. 伙伴系统(一种算法)
- 伙伴系统(Knuth,1973),又称buddy算法,是一种固定分区和可变分区折中的主存管理算法
- 基本原理是:任何尺寸为2i2^i2i的空闲块都可被分为两个尺寸为2i−12^{i-1}2i−1的空闲块,这两个空闲块称作伙伴,它们可以被合并成尺寸为2i2^i2i的原先空闲块。
- 伙伴通过对大块的物理主存划分而获得
- 假如从第0个页面开始到第3个页面结束的主存
- 每次都对半划分,那么第一次划分获得大小为2页的伙伴,如0、1和2、3
- 进一步划分,可以获得大小为1页的伙伴,例如0和1,2和3
16.1.1. 例子:类似二叉树的形式进行分配
16.1.2. Linux伙伴系统
- 以page结构为数组元素的
mem_map[]
数组 - 以free_area_struct结构为数组元素的free_area数组
- 位图数组(bitmap)
16.1.2.1. Linux基于伙伴的slab分配器
- 为什么要使用slab分配器?
- 伙伴系统以页框为基本分配单位,内核在很多情况下,需要的主存量远远小于页框大小,如inode、vma、task_struct等,为了更经济地使用内核主存资源,引入SunOS操作系统中首创的基于伙伴系统的slab分配器,其基本思想是:为经常使用的小对象建立缓存,小对象的申请与释放都通过slab分配器来管理,仅当缓存不够用时才向伙伴系统申请更多空间。//页内可以按2的幂次拆分。
- 优点:充分利用主存,减少内部碎片,对象管理局部化,尽可能少地与伙伴系统打交道,从而提高效率。
- slab的结构
struct slab{struct list_head; // slab满、半满或空闲链表unsigned long colouoff; //slab着色偏移量void * s_mem; //slab的第一个对象unsigned int inuse; //已分配的对象数kmem_bufctl_t free; //第一个空闲对象
}
- slab的操作
16.1.2.2. slab分配器主要操作
- kmem_cache_create()函数:创建专用cache,规定对象的大小和slab的构成,并加入cache管理队列;
- kmem_cache_alloc()与kmem_cache_free()函数:分别用于分配和释放一个拥有专用slab队列的对象;
- kmem_cache_grow()与kmem_cache_reap()函数:
- kmem_cache_grow()它向伙伴系统申请向cache增加一个slab
- kmem_cache_reap()用于定时回收空闲slab
- kmem_cache_destroy()与kmem_cache_shrink():用于cache的销毁和收缩;
- kmalloc()与kfree()函数:用来从通用的缓冲区队列中申请和释放空间;
- kmem_getpages()与kmem_freepages()函数:slab与页框级分配器的接口,当slab分配器要创建新的slab或cache时,通过kmem_getpages()向内核提供的伙伴算法来获得一组连续页框。如果释放分配给slab分配器的页框,则调用kmem_freepages()函数。