机房空调缘何能耗超高及相应的解决方案.doc

机房空调缘何能耗超高及相应的解决方案.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
机房空调缘何能耗超高及相应的解决方案.doc

机房空调缘何能耗超高及相应的解决方案 上篇 机房空调缘何能耗超高 技术领域: 近年来随着高热密度计算机机房建设的发展,一方面多数机房仍沿用原机房局址进行扩容而成;另一方面也有的机房是沿用原始设计而未能够进行主设备扩容。这就会出现使用原精密空调机组已跟不上机房建设发展的需求而产生机房冷却能力不足量的现象;或是精密空调机组的配置量超出了现有机房设备需求而产生机房冷却能力超量的现象,这都会导致机房总体能耗之居高不下。 据IDC预测,到2008年IT采购成本将与能源成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的60%到70%。在接下来的几年里,世界上一半左右的数据中心将受电力和空间的约束,能耗会占到一个IT部门1/3的预算。在数据能源与冷却问题会议上,Gartner有限公司的副总Michael Bell说全世界一半的数据中心将因为低效的动力供给和冷却能力不能达到高密度设备要求而过时有机构预测,在2000年全球第一波数据中心浪潮中建设的数据中心将有50%会在2008年开始重建。±2℃/50±10%Rh;对于计算机和数据处理机房用单元式空气调节机现行国家标准检验工况为23±1℃/55±4%Rh。 而现有机房空调生产厂家所提供的机型其室内机回风口工况参数点的设计多为24℃/50%Rh,在此工况下进行机房选型设计的直接膨胀式空调压缩机COP值和整机SHR(显热比)值均较大,故机房建设进行空调设计时多按照上述工况参数点进行选型。但是若对应到22℃/50%Rh的工况参数点的设计会出现:传统直膨式空调机的压缩机COP值同比下降约7~~~~℃/50%Rh的工况所设计出来的空调机组,当运行于22℃/50%Rh工况下同比增加的能耗大约是15%~℃调低。一般情况是在刀片服务器进场后至少调低空调机组设定温度2℃。对此造成的能耗就已经超过空调出厂标准的20%以上了。然而随着刀片服务器的高度集成化,其散热量已经达到了每个机架30KW之巨;甚至有的正常运行机房在服务器机柜出风口测量到了47℃的高温。最后机房面临着计算机服务器等高热密度负荷的不断进场,只能一味的调低空调机的设定温度值,致使机房内温度低得像个冷库一样。 据研究机构Uptime Institute在2006年对美国19个数据中心的研究中发现,数据中心的过度冷却(overcooling)差不多达到实际所需要的2倍。目前85%以上的机房存在过度制冷问题设备发热量与设备类型型号,机房布置有很大关系。对机房过调研,发现设备发热量并不大电信枢纽大楼在室外30室内21实际冷负荷指标只有66W/ m,其中设备发热小远远小于常规计算指标的16~22W/m2。电子计算机机房设计规范GB50174-93)按下列方法主机房面积确定: 1.当计算机系统设备已选型时,可按下式计算: A=K∑S (2.2.2-1) 式中A--计算机主机房使用面积(m2); K--系数,取值为5~7; S--计算机系统及辅助设备的投影面积(m2)。 2.当计算机系统的设备尚未选型时,可按下式计算: A=KN (2.2.2-1) 式中K--单台设备占用面积,可取4.5~5.5(m2v/台); N--计算机主机房内所有设备的总台数。 绿色网格(Green Grid)组织的有关专家给出的建议。以指导怎样提高数据中心能效。理念是更好地冷却过热区域,不浪费能量去冷却已经冷却的区域。指导方针:a)冷却通道:热通道设计是为了促进有效流动同时将冷热空气流分开,并恰当安置空气调节设备。 b)为服务器运行选择动力经济模式。 c)采用动态计算流软件(computational fluid dynamics)对数据中心的空气流进行模拟,并尝试不同的地面通风口位置和计算空间空气调节单元位置。最优冷却系统可使数据中心能源支出节约25%。d)无论负荷大还是小,冷却系统的能耗是固定的。很好地利用将使其固定能耗降低。在保证增长的情况下,将生产量与数据中心设备的冷却需求相匹配。 e) 数据中心过热点的直接冷却与冷却系统紧密相关,但注意不要冷却已冷却区域。将冷却空气的通道减短。使数据中心设计为服务器和存储器机架的空气流与房间空气流相匹配,这样就不会将电能浪费在从相反方向来抽取空气。f) 采用刀片服务器和存储器虚拟化来减少需要动力冷却系统进行冷却的物理设备的数量。这同时也减少了数据中心所占用的空间。g) 采用更多的高能效照明设备(安装控制器或定时器),这可以直接节约照明费用,并节约冷却费用(因为照明设备的使用会导致其自身过热)。h) 改进机架内部的空气流,使其穿过通道,这可以通过配置盲板隔离空机架空间来实现。i) 当采用专业工程方法将冷却用水直接输送到机架以将电力系统和隔离管道等的风险最小化。j) 采用多核芯片来整合服务器可以减少所需冷却服务器的数量。购买更多的高效芯片并进

文档评论(0)

youbika + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档