- 1、本文档共8页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
数据中心能耗分析
数据中心能耗实例分析
前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。
数据中心节能的必要性
近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。
随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软建在都柏林的数据中心PUE值为1.25Google公司现在已经有部分数据中心的PUE降低到1.11PUE平均值在2.0,中小规模机房PUE值更高,在。提高UPS的工作效率,可以为数据中心节省一大笔电费提高UPS效率降低机房能耗
2、供配电系统对数据中心能耗的影响
数据中心的用电负荷非常巨大,并且有很多变频设备例如冷水机组、水泵、冷却塔、照明灯具等,这些变频设备会产生很大的谐波。此外,UPS、IT设备等也会产生很大的谐波。谐波对数据中心有非常大的危害,而且会增加能耗。对于用电负荷为1000kW的数据中心,进行谐波治理后,每年可节能100多万度电。
3、空调系统对数据中心能耗的影响
据美国采暖制冷与空调工程师学会(ASHRAE)技术委员会9.9(简称TC9.9)统计报告显示,数据中心各部分的用电量分布大致如下图所示:
从上图可看出,空调制冷系统占数据中心总电量的近三分之一,是影响机房能耗的关键指标。每个数据中心空调制冷的能耗存在很大差异,好的空调制冷方案可以极大降低能耗,降低PUE值。因此,本文以2个数据中心为例,着重分析空调系统对数据中心能耗的影响。
数据中心空调系统实例分析
小型数据中心空调系统能耗分析
以南方某数据中心为例,说明小型数据中心的能耗。该数据中心2007年建成,IT机房总面积为530平方米,220个机柜。4台120kVA UPS,3用1备,每个机柜的平均功率为1.3kW。采用风冷式精密空调制冷,配置10台80kW显冷量空调,8用2备。经多年运行,目前该机房负荷已接近满载。该机房是在厂房基础上改建而成,几乎没有采用任何节能措施,仅在改建过程中对楼板、墙壁、门窗等进行加固、封闭及保温处理。 该机房的年PUE值为2.68。每天的用电量约为1.3万kWH。
该机房原配置8台精密空调,6用2备。机房建成后出现局部热点,经分析后,确定由3个因素所致。其一,因机房层高较低,机房架空地板仅为350mm,扣除地板下的强度电缆线槽,有效静压箱高度很低,不利于气流流动。其二,该机房存在空调死角,气流无法有效流动。其三,空调室外机与室内机的高度较大,超过20米,对额定制冷量有折减。为解决上述三个问题,只能通过增加空调数量来解决。因此该机房的PUE值较高。
在这类机房中,机房风冷式精密空调的能耗是影响该数据中心能耗的关键指标,因其房间结构所限,造成精密空调的效率较低,也影响到数据中心的整体能耗较高。
大型数据中心空调系统能耗分析
该数据中心总面积约为3000多平方米,2009年初开始正式投入运行。在本项目中空调冷冻水系统采用了“Free Cooling”技术,在过渡季节利用压缩机+自然风冷却运行模式。在冬季则完全利用自然风冷却进行板式换热。在冬季及过渡季节,外界湿球温度小于4℃时,采用“Free Cooling”运行模式,即冷水机组停止运行,经冷却塔散热后的冷却水和从精密空调来的冷冻水在板式换热器内进行热交换,将机房内的热量带走,此时冷却塔起到冷水机组的作用。在此过程中仅冷却塔的风扇、水泵及精密空调等设备在耗电,冷水机组完全没有耗电。在夏季及过渡季节当外界湿球温度高于4℃时,“Free Cooling”运行模式已无法满足数据中心制冷需求,此时冷水机组开始制冷,回到传统的空调压缩机制冷模式运行。系统示意图如下图所示:
作为数据中心的关键基础设施,冷冻站的设计是最重要环节。本项目设置2个相对独立的制冷机房,每个冷冻机房有2台3500KW(合1000RT)的离心式冷水机组,3用1备。冷冻水供回水温度设定为11℃/17℃。考虑前期负荷较小,为避免离心式冷水机组在低负荷时发生“喘振”现象,系统配置2台400RT的螺杆式冷水机组。板式换热器按冷
您可能关注的文档
- 操作系统移动臂调度算法的实现.doc
- 放射科目标责任书.doc
- 收益权投资协议.doc
- 操作系统复习题题库及答案.doc
- 操作系统自拟试题+茆彩云201340910348.doc
- 政治经济学_在线作业_2.doc
- 拉索施工作业指导书.doc
- 政治经济学课后答案第四章_已改.doc
- 政治客观题重点笔记.docx
- 教师职业道德整理.docx
- 2024-2025学年度医学检验(士)能力检测试卷【突破训练】附答案详解.docx
- 2024-2025学年度医学检验(士)能力检测试卷及答案详解(历年真题).docx
- 2024-2025学年度医学检验(士)能力提升B卷题库(名师系列)附答案详解.docx
- 2024-2025学年度医学检验(士)能力提升B卷题库附答案详解(完整版).docx
- 2024-2025学年度医学检验(士)能力检测试卷(培优A卷)附答案详解.docx
- 2025甘肃陇南紫金矿业有限公司招聘9人笔试备考题库及答案解析.docx
- 2024-2025学年度医学检验(士)能力提升B卷题库附完整答案详解【易错题】.docx
- 2024-2025学年度医学检验(士)能力提升B卷题库附完整答案详解【全优】.docx
- 2024-2025学年度医学检验(士)能力检测试卷及参考答案详解(B卷).docx
- 2024-2025学年度医学检验(士)能力提升B卷题库附参考答案详解(基础题).docx
最近下载
- H3C Workspace云桌面 客户端定制配置指导(办公场景)-5W104.pdf
- 小学班队活动设计方案.pptx VIP
- 国开电大 道路工程 形考任务1-4答案.pdf VIP
- 小学班队工作原理与实践教案.doc VIP
- 701-第七章-小学班队活动管理.pptx VIP
- 2025年混凝土质量控制及管理制度(二篇) .pdf VIP
- 在线网课学堂《领导学:领导力成长路线图》单元测试考核答案.pdf
- GB 44022-2024硝酸铵安全技术规范解读.pptx VIP
- 在线网课学习课堂《人工智能与生物特征识别(北理 )》单元测试考核答案.pdf VIP
- Unit 5 Is this your pen (说课稿)-2024-2025学年湘少版(三起)(2024)英语三年级上册.docx VIP
文档评论(0)