- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
计算机组成原理 Slide * 段页式管理 程序按模块分段 段再分成长度固定的页。 程序调入调出按页面来进行 程序共享保护按段进行 兼备段式,页式管理的优点 在地址映像中需要多次查表 计算机组成原理 Slide * 虚拟存储器替换算法 访问的数据不在主存,页面失效,缺页,从外存中调入数据。 当主存已经被全部占满,必须用一定规则进行替换,这就是替换算法。 虚拟存储器替换算法涉及一次磁盘操作,性能损失大于cache。 页面替换采用操作系统实现,cache数据替换采用硬件自动实现。 计算机组成原理 Slide * 3.10 存储保护 多个程序共享主存,应防止一个程序出错而破坏其他程序。防止程序非法访问不属于该程序的存储空间。 存储系统必须提供存储保护能力 存储区域保护 访问方式保护 计算机组成原理 Slide * 存储区域保护 非虚拟存储器存储保护 采用界限寄存器,访问地址越界表示出错 虚拟存储器存储保护 页表保护,段表保护 键保护方式 环保护方式 计算机组成原理 Slide * 页表保护和段表保护 每个程序都有自己的页表和段表,页表和段表本身有自己的保护功能。 如虚拟页号0、1、2对应主存页号3、5、6,如果虚页号错定为4,在页表中必然无法查找到,即不能访问主存。 计算机组成原理 Slide * cache的命中率与cache容量的关系 计算机组成原理 Slide * 块容量与命中率 计算机组成原理 Slide * 地址映射与命中率 计算机组成原理 Slide * 高速缓冲存储器 Cache基本原理 相联存储器 主存与Cache的地址映射 替换策略与写操作策略 Cache实际应用 计算机组成原理 Slide * cache实际应用 块设备缓存 硬盘缓存 web cache 计算机组成原理 Slide * 块设备高速缓存 操作系统为优化磁盘等慢速块设备在内存中设置高速缓存。 将经常使用的数据存放在高速缓存中,用于提高磁盘访问速度。 通过预读以及提高命中率的方式可大大减少读访问时间。 通过写回的策略可大大减少写访问时间。 计算机组成原理 Slide * 块设备高速缓存写回策略 块设备高速缓存写策略通常采用写回策略 用于提高写访问性能,即CPU将数据写入cache即完成写操作。 仅仅写入cache的数据称为脏数据 操作系统定时将脏数据写入磁盘保证数据一致性 当系统中存在脏数据,磁盘断电? 计算机组成原理 Slide * 计算机组成原理 Slide * 硬盘缓存技术 硬盘缓存是硬盘上集成的一颗内存芯片,充当硬盘与处理器之间的高速数据缓冲区。 据有预读取、对写入动作进行缓存、临时存储最近访问过的数据等主要功能。 实现类似处理器二级缓存那样的缓冲功能,在一定程度上缓解了硬盘读取速度与CPU、内存等配件的处理速度不匹配的问题。 缓存容量越大能缓冲的数据就越多,硬盘的访问速度也就越快。 计算机组成原理 Slide * 硬盘缓存技术 计算机组成原理 Slide * WEB cache :3128 Web Cache可将用户经常访问的web内容暂时存储在离用户很近的地方,当其他用户再次访问这些内容时可以快速地获得信息,缩短了响应时间,从而达到提高网络访问速度和降低国际通信费用的目的。 Cache有机制保障用户每次访问的数据都不会过时 计算机组成原理 Slide * Multi-level caches size: speed: $/Mbyte: line size: 200 B 3 ns 8 B 8-64 KB 3 ns 32 B 128 MB DRAM 60 ns $1.50/MB 8 KB 30 GB 8 ms $0.05/MB larger, slower, cheaper Memory TLB L1 Icache L1 Dcache regs L2 Cache Processor 1-4MB SRAM 6 ns $100/MB 32 B larger line size, higher associativity, more likely to write back Options: separate data and instruction caches, or a unified cache disk 计算机组成原理 Slide * Intel Pentium cache hierarchy Processor Chip L1 Data 1 cycle latency 16KB 4-way assoc Write-through 32B lines L1 Instruction 16KB, 4-way 32B lines Regs. L2
文档评论(0)