通信行业数据中心液冷高增长AI算力呼唤高效液冷,国产液冷全链条崛起.docxVIP

通信行业数据中心液冷高增长AI算力呼唤高效液冷,国产液冷全链条崛起.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

目录

数据中心“算力热”与“散热焦虑”,头部厂商引领液冷渗透率快速提升 6

GPU算力爆发增长下全球数据中心能耗快速提升 6

液冷具有综合OPEX优势,或加速在数据中心渗透 7

英伟达、华为、运营商等引领液冷产业快速发展 11

解读液冷产业链环节,冷板式液冷有望率先渗透 14

液冷具有冷板式、浸没式、喷淋式三种技术路线,冷板式当前最具性价比 14

冷板式液冷产业链环节 18

浸没式液冷产业链环节 20

投资机会:国内液冷全产业链受益 22

服务器内市场:配套ODM订单形式,直接受益IT设备液冷渗透率提升 22

二次液冷设备:项目制,受益于新建AI数据中心和存量政策性改造 25

数据中心基础设施整体解决方案:项目制,主要受益于新建IDC 27

IDC:液冷渗透率高的IDC将更好享受AI业务增长红利 29

风险提示 30

图表目录

图1:AI算力可预期的未来将逐季环比增长 6

图2:主力GPU厂商的芯片功耗持续上升 6

图3:Semianalysis对全球数据中心能耗结构的观点 7

图4:SPGlobal对全球数据中心能耗结构的观点 7

图5:水的比热更大,液冷能有效散热 8

图6:当机柜密度大于20kw时需要采用液冷散热 8

图7:采用芯片级冷板液冷方案整体TCO较风冷具备明显优势 8

图8:数据中心能耗分布 9

图9:某液冷数据中心能耗分布 9

图10:制冷散热设备是数据中心基础设施投资占比较大的部分 10

图11:华为昇腾液冷人工智能模块化数据中心已经批量交付 13

图12:液冷系统通用架构原理图 16

图13:冷板式液冷系统原理图 16

图14:单相浸没式液冷原理图 16

图15:喷淋式液冷原理图 16

图16:液冷给机房配套带来的变化 17

图17:风冷、冷板液冷、单相浸没式液冷TCO分析 17

图18:冷板式液冷系统结构 19

图19:CDU的原理结构 20

图20:单相浸没式液冷系统结构 21

图21:单相浸没式液冷机柜典型结构 21

图22:中国液冷服务器市场快速增长 22

图23:中国液冷服务器市场份额 22

图24:CPU液冷模组图示 23

图25:全液冷服务器节点结构 23

图26:人工智能液冷服务器冷板设计方案图示 23

图27:GPU冷板模组设计示意图 23

图28:液冷不同交付模式示意图 25

图29:公司世纪互联新建太仓国际车联网大数据产业园二期项目案例 28

图30:公司哔哩哔哩常熟液冷机房项目案例 28

表1:风冷、液冷对比 10

表2:英伟达B200、H100、A100(80GB)对比 11

表3:英伟达GB200NVL72与GB200参数 12

表4:华为Atlas800训练服务器风冷、液冷对比 12

表5:电信运营商未来三年规划 14

表6:冷板式、浸没式、喷淋式液冷技术比较 15

表7:全球数据中心服务器液冷市场规模测算 17

表8:液冷行业仍处在发展早期,行业主要参与者分为三大类 18

数据中心“算力热”与“散热焦虑”,头部厂商引领液冷渗透率快速提升

GPU算力爆发增长下全球数据中心能耗快速提升

全球AI算力快速增长,且芯片TDP功率持续提升,为数据中心制冷带来挑战。根据SemiAnalysis数据,2023Q3-Q4AI算力环比增速保持在70%以上,预计从2024Q1开始,AI算力每季度环比增速还将维持在30%-60%。除全球AI算力高增,各大芯片厂商的TDP功率也在飞速提升,根据SPGlobal数据,2017年主流芯片厂商TDP仅为200w左右,到2023年,一般GPU的TDP已经达到350-700W,NVIDIA新一代B100功耗甚至超过1000W。

图1:AI算力可预期的未来将逐季环比增长 图2:主力GPU厂商的芯片功耗持续上升

资料来源:SemiAnalysis, 资料来源:CDCC,SP,

AI服务器出货量将迎来高增,AI数据中心将成为数据中心能耗爆发的主要推手。根据TrendForce,2023年全球AI服务器(包含搭载GPU、FPGA、ASIC等)出货量将接近120万台,同比+38.4%,占整体服务器出货量的比重约9%,预计2024年占比将达到12.1%,对应出货量165万台,同比+37.7%。AI服务器出货量激增带来数据中心能耗爆发,根据SemiAnalysis数据,

文档评论(0)

535600147 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档