- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
PAGE 1
PAGE 1
刀片服务器并不能解决数据中心的所有问题
刀片服务器有时候并不能帮助提高能效,甚至有的时候还会起反作用;数据中心用电效率的改进并不依靠于刀片服务器;企业数据中心的业主开始倾向于从供应商那购买一些“小工具”,而不是数据中心的整体设计方案。本文我们将深入每个问题逐个分析。 空间不是数据中心的问题 跟数据中心业主的交谈让我学到了许多东西,但间或我也会冒出一些没意义的想法。我最喜欢的例子是服务器密度。我接触过很多刚刚购买了刀片服务器的数据中心业主。谈话的内容方向上始终是全都的,“我们买了刀片而现在看来不过是又多了一些25千瓦的机架”。我问他们的数据中心是否有openfloor,基本上他们都有。那么回过头来看,我在想,他们现在以昂扬选购成本购买了更高功率密度的机架,以期望每平方英尺空间能供应更高的计算能力,但事实上,数据中心不缺空间,因为几乎全部细心设计的数据中心都不会受到建筑面积的约束,而是电源和制冷方面的约束。为什么会这样? 其实这是在数据中心建设之初设计师们唯一的选择。我们来算算这笔帐:电源和冷却成本大约占数据中心总成本的70%,而数据中心的壳即这座大楼仅占10%多点。设计师需要设计一个可持续15年之久的数据中心,作为一名设计人员,怎么能够预料到15年以后的数据中心功率密度(通常用瓦特/平方英尺表示)应当是多少呢?该密度打算因素很复杂,取决于服务器的技术、存储利用率,以及很多其他未知因素。我们唯一准确知道的就是是我们不知道将来需求是什么,无论选哪个都是错的。设计师可以选择供应过量的电力和冷却,或者选择供应更大物理空间。选铺张地面空间错了10%,而搁浅电力和冷却资源却错了70%。多年前,任何一位以数据中心空间为代价保证将来的电源和冷却运行的设计师毫无疑问一定会被炒鱿鱼。他们多数都会选择在合理使用范围内供应超过需要的建筑面积来避免被炒。这就是为什么大多数的数据中心都有巨大的可用空间。 不排解有罕见的例外,但是常见的状况还是:数据中心业主投入更多资金购买刀片服务器,产出的不过是获得了更多数据中心空间,而他们原本就有未使用的空间。他们的数据中心原来就存在电源和冷却资源不足的问题,现在,加上高密度的服务器以后,这个问题更严重了。那么效率又如何呢?在谈到新的机架惊人的效率时,我们通常会提到PUE(PowerUsageEffectiveness)。PUE是电力使用效率,实际上它比听起来简洁,即进入数据中心的总能量除以关键负载耗能(用于服务器本身的能量)。举个例子,PUE值为1.7即意味着服务器每消耗1w,电力安排和冷却系统的耗能是0.7W。少数数据中心,尤其是那些经过一段时间后许多机器积累在一起的,而不是从最开始就设计为一个整体的数据中心当中,PUE甚至糟糕到高达3.0,但要实现这个数字也需要付出一番“努力”,所以我们会以1.7为例作为基线。 在我与数据中心业主的交谈中谈到了刀片服务器的效率,他们称PUE改善了,从1.7降到1.4。听起来很不错,假如事实果真如此,那么这样的效率所带来的收益将超过购买刀片多付出的成本,同时也能起到良好的社会作用。不过我们需要深入的研究一下。我首先庆贺他们取得了美丽的PUE,并询问他们在初次安装新的刀片机时数据中心是否遇到了冷却问题。他们通常都经历过这样的问题,并且最终从APC,Rittal或者其他供应商那里购买了水冷机架。另外一些业主购买了诸如IBMiDataPlex那样的装有水冷背板的刀片机架。无论他们购买了谁的刀片产品,有一点是相同的:他们购买了刀片服务器,并在同一时间,采用水冷机架。新一代服务器比前一代效率更高,并且有更高效的冷却设计,不论它是不是刀片服务器。把服务器放到刀片上并没有使它们更有效率。 上述PUE改善最主要的原因是:他们用机架水冷取代了传统数据中心效率低下的风冷设计。水冷机架设计并没有什么奇妙之处。很多其他类似的方法会有相同的甚至更好的效率。重点在于,水冷机架用的并不是大部分数据中心目前采用的最常见的、特别低效的风冷系统。传统的数据中心通常采用地板出风的设计,常温空气通过水冷CRAC(计算机房空调设备)单元变成冷空气,再从过道上穿孔的地砖吹向服务器等发热设备,出风口都在地上。某些过道上有太多穿孔地砖,而某些过道的又太少。有时工作人员将穿孔地砖放到更热的过道期望能够将其“冷却下来”。这样做的动身点虽然是好的,但不幸的是冷却效率反而大大降低了。有些冷空气会通过服务器,但有一些却上升到机架的上方了;还有一些流到没有挡板的空机柜里面去了。不经过服务器的冷空气流淌,导致冷却系统的效率降低。流经服务器的冷空气最终会上升到天花板然后返回CRAC。冷空气跑了这么多不通过服务器的
文档评论(0)