- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
存储体制
4. 段相联映象 图 4.36 具有每段Z个块的段相联映象 习题:有一个Cache存储器。主存共分8个块(0~7),Cache为4个块(0~3),采用组相联映象,组内块数为2块,块的大小为16B。替换算法为近期最少使用算法(LRU)。 (1)画出主存、Cache地址的各字段对应关系(标出位数)图; (2)画出主存、Cache空间块的映象对应关系示意图; (3)对于如下主存块地址流:1,2,4,1,3,7,0,1,2,5,4,6,4,7,2,如主存中内容一开始未装入Cache中,请列出Cache中各块随时间的使用状况; (4)对于(3),指出块失效又发生块争用的时刻; (5)对于(3),求出此期间Cache的命中率。 4.3.3 cache存储器的LRU替换算法的硬件实现 图 4.36 组相联映象LRU法经堆栈实现(需要有相联比较功能) 1. 堆栈法 (组内块号) (组内块号) (组内块号) (组内块号) (组内块号) 2s个寄存器 需重新排列的块号 都下推一行 被访问的块号 (经相联比较找到) ? 寄存器堆栈 压入 s位 近期最近访 问过的块 近期最久没有 访问过的块 1)过程 图 4.19 命中率与页地址流有关 图 4.20 FIFO法的实页数增加, 命中率反而有可能下降 (6) 堆栈型替换算法 a)定义 A:长度为L的任意一个页面地址流 t: 已处理过t-1个页面的时间点 n:分配给该地址流的主存页面数 Bt(n):在t时间点、在n页的主存中的页面集合 Lt:到t时刻已遇到的地址流中相异页的页数 若 n Lt时, Bt(n+1) ? Bt(n) n= Lt时, Bt(n+1) = Bt(n) 成立,则此替换算法属于堆栈型的替换算法。 b)优点 ?命中率随主存页数的增加只可能提高,至少不会下降。 ?只需采用堆栈处理技术对地址流模拟处理一次,即可同时获得对此地址流在不同主存页数时的命中率,大大节省存贮体系设计的工作量。 ?对页地址流A在t时刻的At页是否命中,只需看St-1(主存在t-1时刻的堆栈)的前n项是否有At,若有则命中。 用堆栈处理技术对地址流进行模拟处理时,主存在t时间点的状况用堆栈St表示。对不同的堆栈型替换算法,St各项的改变过程是不同的。例如,LRU算法是把主存中刚访问过的页号置于栈顶,而把最久未被访问过的页号置于栈底。确切地说,t时间点访问的页At,若 , 则把At压入堆栈使之成为St(1),而St-1(1)成为St(2), St-1(2)成为St(3),……,即St-1各项都下推一个位置;若At∈St-1, 则把它由St-1中取出,压入栈顶成为St(1),在At之下各项的位置不动,而At之上的各项都下推一个位置。 图 4.21 使用LRU法对页地址流进行堆栈处理 由图4.21的St可确定对应这个页地址流和主存页数n取不同值时的命中率。只要对不同的n值,当At∈St-1,则命中;当 , 则不命中。例如,对n=4,其S5={5, 1, 2,3},因为A6=2∈S5,所以命中;但对n=2,其S5={5, 1},因为 , 所以不命中。这样就可算出各个n值的命中率H*如下所示: N 1 2 3 4 5 5 H* 0.00 0.17 0.42 0.50 0.58 0.58 4.2.3 页式虚拟存贮器实现中的问题 1.页面失效处理(数据或指令(D/I)跨页) 页面失效不同与一般中断,作为一种故障马上处理。 页面失效故障点的保存与恢复:增设后援REG和预判技术。 替换算法的选择: 当命中率小于一定范围时,增加分配给其的页数。避免指 令跨页存放的页来回调度,进进出出“颠簸”。 因此,给一道 程序分配的主存页数要有某个下限。 2.提高虚拟存储器等效访问速度的措施 (1)基本原理:采用程序局部性原理,用快速硬件构成比全表小得多的目录表存放当前正用的虚实地址映像关系。例如:8-16个页目表项。而且这些目录项的访问速度与CPU的通用register 相当。称这个小容量的页目录表为快表。 (2)快表和慢表间的关系: 快表只是慢表的一个副本,而且只是存放了慢表中的一小部分。因此,快表和慢表也构成了二级存储体系。 1)快慢表 图 4.22 经快表与慢表实现
文档评论(0)