多核处理器中最一级共享高速缓存管理策略研究.pdfVIP

多核处理器中最一级共享高速缓存管理策略研究.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
多核处理器中最一级共享高速缓存管理策略研究.pdf

摘要 摘要 随着高性能处理器技术的发展,存储墙问题为影响处理器系统性能的主要 因素之一。处理器速度通常会比存储器的访问速度快两个数量级,当代多核处 理器广泛采用基于大容量最后一级共享高速缓存的结构来缩小这一差距。但是 适用于小容量私有高速缓存的传统管理策略并不适用于管理大容量最后一级共 享高速缓存,它可能引起高速缓存缺失数的增加,触发大量代价昂贵的片外存 储器访问。其原因主要有以下两点:首先,小容量私有高速缓存主要强调访问 速度,而最后一级高速缓存则强调尽可能多地将数据保留在片内,它更多地受 制于片内可用晶体管数量而对访问速度的要求不高。其次,这两种不同类型的 高速缓存可见的数据访问流局部性差别非常大。因此,一种能够有效管理大容 量最后一级共享高速缓存的管理策略对于当今高性能微处理器而言,显得非常 重要。本文重点分析了多核平台下大容量共享最后一级高速缓存管理过程中存 在的一些热点研究问题,并提出相应代价较小但是收效较大的解决方案以提高 系统性能。本文的主要研究内容与贡献包括: 1. 消除低重用块和预测访问间隔策略研究。传统的LRU 策略严重制约了 大容量共享最后一级高速缓存的性能,解决这一问题的方法之一就是优先淘汰 低重用数据块以缩小工作集,使得使用频率较高的数据留在片内,以获得较高 的命中率提高性能。本文设计了一种被称之为低重用块消除和重新访问间隔预 测管理策略。根据最后一级高速缓存中低重用块占用资源时间较长这一特点, 该策略通过感知最后一级高速缓存的上一级高速缓存的数据历史访问信息预测 出低重用块并将其优先淘汰;并且通过改进的访问间隔预测技术预测出潜在的 低重用块并将其优先淘汰。实验表明,对于4 核多核处理器而言,TADELRRIP 可以将加权加速比平均提高9.14%. 2. 分治感知管理策略研究。由于不同负载在不同执行时期存在不同访存行 为,单一高速缓存管理策略已经无法满足不同局部特性负载的性能需求。当并 发执行的线程间存在破坏性干扰时,最后一级高速缓存可能会产生大量的缺失, 从而引起多核处理器系统整体性能的下降。本文提出了分治感知管理策略 (TADC ),该策略将高速缓存组内的资源均分给各个工作负载,各个负载在所 分得的资源内管理自己的数据块。在不同的执行时期内,TADC 能感知不同负 载的不同访存行为,并对它们采取不同的管理策略。实验表明,TADC 可以将 2 核处理器和4 核处理器的性能可以分别平均提高7.48%和3.00% 。 关键词:多核处理器 最后一级高速缓存 LRU 策略 访存行为 预测访问间隔 高 速缓存缺失 主存储器访问 高速缓存管理策略 I Abstract ABSTRACT With the development of high performance microprocessor, the access to main memory becomes a key constraint for the performance of processor. The speed of processor excesses that of memory access by two orders of magnitude. The architecture of processors with large capacity shared last level Cache (LLC) is most commonly used in multi-core processor design to narrow this gap. But the traditional management policy which is fit for small capacity cache does not perform well in managing the LLC. It triggers large numbers of LLC miss, leading to expensive off chip memory access

文档评论(0)

chengben002424 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档