Google最新数据中心方案介绍.pdfVIP

  • 30
  • 0
  • 约4.62千字
  • 约 9页
  • 2015-09-24 发布于重庆
  • 举报
Google最新数据中心方案介绍

Google 最新数据中心方案介绍 腾讯计算机系统网络平台部 李典林 Google 将其数据中心技术作为一个核心竞争力,很少对外公布其技术细节,因此搜索巨人 的数据中心一直是个谜。近日,谷歌公布了其数据中心能耗发展的图表,在图表中显示近年来谷 歌在能耗控制方面有了明显的进步。在 2010 年第一季度,谷歌新建的数据中心综合电力使用效 率为 1.16 (PUE ),其中一个数据中心的PUE 值达到了 1.09。从公布的这些图表中,在纵向上 我们可以看到 Google 在全球各地的多个数据中心 PUE 控制都已经达到非常高的水平;在横向上 看曲线整体倾斜向下,说明还是个逐步改进、不断优化的精细化运营调优过程。这些图表的另一 个显著特点是各个数据中心的 PUE 值随着时间轴,不管是在不同的季节,还是在一天的不同时 间点上都表现出较大的波动性,说明 Google 数据中心的自然冷水平非常高。结合室外自然环境 温度,尽量利用外界冷源带走热量,能不开启机械制冷就不启动。在散热方面只给够用的冷量, 绝不浪费。 (a ) Google 多个数据中心的多年 PUE 曲线 (b ) Google 某一数据中心的日 PUE 曲线 本文针对 Google 数据中心的这些特点,将介绍 Google 位于欧洲的三个不同实现自然冷却方 式的机房,这些机房都实现了 100% 自然冷却,都是没有chiller (制冷机组)的典型应用案例, 分别是比利时水侧自然冷数据中心、爱尔兰空气侧自然冷数据中心和芬兰海水直接冷却数据中心。 当然本文提到的这些数据中心技术和机房所在当地的气候、政策、资源等相关,且属于完全 定制的数据中心,不好为国内直接移植和借用,但思路和创新精神非常值得国内同行学习借鉴。 1、比利时数据中心 Google 比利时的数据中心位于 Saint – Ghislain,该数据中心的第一阶段在2008 年初投入, 并于 2011 年 Q1 完成全部阶段设计。2011 年 Q1 的PUE 可以低达 1.09,而全年平均 PUE 可达到 1.11。该数据中心采用蒸发冷却系统,从附近的工业运河抽取用水。“我们设计并制作了一个站 内的水处理厂,”Kava 说道,“这样我们就不用使用供应城市的可饮用水”。该数据中心利用 运河的冷水来带走热量,并自己修建水处理厂,再将处理后的运河水给数据中心提供冷量,只采 用冷却塔来散热,无 chiller ,实现了 100%水侧自然冷机房,是谷歌的第一个完全自然冷的数据 中心。 距离数据中心大约 400 米外的工业运河,Google 建设了现场的水处理工厂,直接从运河中 抽取河水。由于运河的水质比较糟糕,必须过滤处理并净化到工业用水标准,但 Google 也不会 将河水过滤处理到非常干净的水平,只要可用于制冷散热即可。然后用水泵将净化后的冷水输送 到模块化储冷大水罐,再供给到各个冷却塔,用于后续蒸发冷却。这个过程结果不仅冷却了服务 器,还清洁了水源,当地的部长也称赞 Google 说这是一次双赢的合作。 整个水处理厂的污水处理过程如下图所示: Google 在比利时的数据中心中采用了模块化的无 chiller 自然冷却系统,通过下图中的热交 换器热交换原理,将室内的热量通过存于水箱中温度较低的、处理过的运河水从冷却塔带走,实 现无需机械制冷的目的。 比利时的气候几乎可以全年支持免费的冷却,平均每年只有7 天气温不符合免费冷却系统的 要求。Kava 指出,机房温度不需要像以前那样低。在 2008 年的时候,美国加热冷冻及空调工程 师协会(ASHRAE )建议数据中心的温度应保持在20 到 25 摄氏度之间——但 Google 建议将其 保持在 27 度以上。“构建一个高效的数据中心的第一步就是简单的提高它的温度,”Kava 说, “机器、服务器、存储阵列、任何东西在比一般数据中心保持的温度高的多的地方都能很好的运 行。对我而言,任何数据中心在 18 或 20 摄氏度以下运行都是相当可笑的。” 在比利时这里,有时候会热的连服务器都不能运行,这时 Google 就会将这里的工作移交给 其他数据中心负责。Kava 没有给出任何细节,但他表示这种数据中心之间的工作交接涉及到一 个叫做 Spanner 的

文档评论(0)

1亿VIP精品文档

相关文档