面向低功耗多核处理器Cache设计方法.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
面向低功耗多核处理器Cache设计方法

面向低功耗多核处理器Cache设计方法   摘要:   针对多核处理器下的共享二级缓存(L2 Cache)提出了一种面向低功耗的Cache设计方案(LPD)。在LPD方案中,分别通过低功耗的共享Cache混合划分算法(LPHP)、可重构Cache算法(CRA)和基于Cache划分的路预测算法(WPPL2)来达到降低Cache功耗的目的,同时保证系统的性能良好。在LPHP和CRA中,程序运行时动态地关闭Cache中空闲的Cache列,节省了对空闲列的访问功耗。在WPPL2中,利用路预测技术在Cache访问前给出预测路信息,预测命中时则可用最短的访问延时和最少的访问功耗完成Cache访问;预测失效时,则结合Cache划分策略,降低由路预测失效导致的额外功耗开销。通过SPEC2000测试程序验证,与传统使用最近最少使用(LRU)替换策略的共享L2 Cache相比,本方案提出的三种算法虽然对程序执行时间稍有影响,但分别节省了20.5%、17%和64.6%的平均L2 Cache访问功耗,甚至还提高了系统吞吐率。实验表明,所提方法在保持系统性能的同时可以显著降低多核处理器的功耗。   关键词:片上多核处理器;二级缓存;动态划分;低功耗;性能   中图分类号:TP393   文献标志码:A   0引言   随着半导体技术水平的不断提高,片上集成的处理器核数也在不断地增加。单核处理器的性能已经近于极限,因此,多核乃至众核处理器已经取代传统的单核处理器成为处理器发展趋势的主流。多核处理器架构简单,设计易于优化和扩展。但是,目前与多核处理器相关的技术发展还未成熟,多核处理器潜在的优势尚未被完全挖掘出来。多核领域中还存在很多问题需要进一步的研究。   Cache的大容量,快速及频繁的访问,使其访问功耗在片上处理器芯片的整体功耗中占主导地位,所占比例为30%~60%[1-2]。多核处理器系统功耗节省方案可在不同的系统层次上实现,以微处理器设计为例,在系统结构级上进行能源优化的比例为40%~90%,而在寄存器重定向级进行能源优化所占的比例为15%~30%。从系统结构级上提出的低功耗方案多集中在对Cache的设计。目前,在减少Cache功耗与提高共享L2 Cache性能方面已经提出了很多的算法方案[3-6]。   在保证共享Cache性能的基础上,本文提出了三种方法用于降低Cache的功耗:可重构Cache、Cache划分和Cache路预测。   1LPD相关技术   LPD是指面向低功耗的Cache设计(Low Power OrientedCache Design)。多核处理器的共享L2 Cache通常拥有较大的容量,但其利用率却不高。因此,适当地减少L2 Cache的容量不仅可提高其利用率,还可以节省能耗的开销。Cache的划分策略可以有效地解决对共享Cache竞争使用造成的访问冲突,这对高性能计算具有重要意义,其中以基于Cache路的划分所需系统开销最小。因此,本文提出的Cache划分算法就是以Cache列为单位进行划分。面向低功耗的混合划分算法(Low Power oriented Hybrid cache Partition algorithm, LPHP)主要利用程序执行时在时间和空间上的局部性原理,通过合并在L2 Cache访问中差异度较大的两个线程,并以此作为Cache划分的一个单位对共享L2 Cache进行动态划分。与以往的Cache划分策略相比,LHPH算法可以节省更多的Cache路空间,即关闭更多的Cache路,从而更大程度地降低了Cache访问功耗。   Cache可重构技术是指在程序运行过程中,动态地关闭程序运行时没有使用到的Cache资源,从而降低Cache的功耗。本文中提到的Cache可重构是指路可重构,通过动态监测程序执行过程中对Cache路的访问情况,关闭部分空闲的Cache路。Cache可重构机制通过在Cache访问模块中增加可重构Cache算法,在硬件上增加可重构Cache的模块,使程序在运行过程中会改变Cache的相联度。   在基于Cache划分的路预测算法(WPPL2) 中,通过Cache划分策略将共享L2 Cache划分给每个处理器核,使得每个处理器核独占部分的L2 Cache空间。在进行L2 Cache访问之前,由路预测预先提供可能访问到的Cache路编号,L2 Cache访问时直接读取预测路对应的标记和数据,如果路预测命中,则可在最短的访问延时内完成L2 Cache访问,同时节省了功耗。如果路预测失效,则在增加的时钟周期内只需读取该处理器核在划分时所得的Cache路中除预测路之外的剩余Cache路的标记和数据,减少了在预测失效时需要额外访问的Cache路的数量,从而降低了因预测

文档评论(0)

317960162 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档