- 1、本文档共79页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
证券研究报告|行业深度研究报告
液冷,AI时代的下一个“光模块”
AIGC行业深度报告(16)
华西计算机团队
2024年7月24日
分析师:刘泽晶
SACNO:S1120520020002
邮箱:liuzj1@
分析师:孟令儒奇
SACNO:S1120524060001
邮箱:menglrq@
请仔细阅读在本报告尾部的重要法律声明
核心逻辑:
u为什么说液冷是AI的下一个光模块:AI高速互联时代,高算力与高效传输架构相匹配,从40G取代10G,100G取代40G,400G取代100G,800G取代400G,1.6T有望取代800G,升级之路永不停息;液冷已经从“选配”到“必配”,高温环境下,芯片内部的电子元件会因为长时间工作而受到损耗,从而缩短芯片的使用寿命,风冷的极限芯片散热功率是800W,英伟达部分产品已经突破风冷能力上线,例如GH200以及最新款B200、GB200。此外单机柜密度来说,2025年AI集群算力单机柜密度将有望到20-50kW,也远远超出了风冷的上限。政策为液冷市场扎入“强心剂”,国家政策对PUE值要求趋紧,呈逐年下降趋势。
u深度拆解液冷的核心价值链:液冷分为冷板式液冷,浸没式液冷、喷淋式液冷,我们判断冷板式液冷有望率先放量。根据我们的测算,2024、2025年我国的液冷市场规模分别为208.17、1700.23亿元,同比增速分别为756.6%、716.8%。液冷散热系统通常由至少两个相互隔离的循环回路组成,一次侧主要的散热设备主要有三种:干冷器、冷却塔和制冷机组,冷板式液冷的二次侧组件包括:冷板组件、快速接头QDC、机柜工艺冷媒供回歧管RCM、环路工艺冷媒供回歧管LCM、冷量分配单元CDU及工艺冷媒,相关公司有望在液冷趋势下快速放量。
u深度拆解液冷的受益公司类型:维谛技术(Vertiv)深度绑定英伟达从而迈向成长,公司2023年3月31日股价为11.75美元,公司2024年3月31日公司股价为81.67美元,我们判断其背后的原因为由于AIGC爆发,公司相关液冷数据中心产品业绩迎来高增。我们将液冷产业链的受益公司简单拆解为三类,分别是服务器内侧端、液冷建设端、液冷基础设施提供商;我们将服务器内侧端定义为服务器内部的组件,可直接受益高功率AI芯片放量。液冷建设端,由于建设主体的不同,我们将液冷建设端分为液冷全链条式解决方案厂商、服务器厂商以及IDC厂商,每种类型厂商独具优势。液冷基础设施提供商即可提供相关液冷单独产品,随着液冷的升级换代,其相关产品有望量价齐升。
投资建议:在AI芯片架构升级的大趋势下,高算力与高功耗相匹配,英伟达相关产品功耗已经超过风冷极限,液冷已经从“选配”到“必配”,受益标的为:服务器内侧端:服务器内侧端:飞荣达等;液冷建设端,全链条式解决:英维克、申菱环境、高澜股份等;液冷建设端,服务器厂商:工业富联、浪潮信息、曙光数创等;液冷建设端,IDC建设:润泽科技、奥飞数据、数据港等;液冷基础设施提供商:强瑞技术、淳中科技、朗威股份、川环科技、海鸥股份等;
u风险提示:核心技术水平升级不及预期的风险、AI伦理风险、政策推进不及预期的风险、中美贸易摩擦升级的风险。
2
3
目录
01液冷已经从“选配”到“必配”
02深度拆解液冷的核心价值链
03梳理液冷产业链的受益公司
04投资建议
05风险提示
4
01液冷已经从“选配”到“必配”
1.1算力在大模型时代迎来爆发,光模块需求高增
u大模型参数呈现指数规模,引爆海量算力需求:根据财联社和OpenAI数据,ChatGPT浪潮下算力缺口巨大,根据OpenAI数据,模型计算量增长速度远超人工智能硬件算力增长速度,存在万倍差距。运算规模的增长,带动了对AI训练芯片单点算力提升的需求,并对数据传输速度提出了更高的要求。根据智东西数据,过去五年,大模型发展呈现指数级别,部分大模型已达万亿级别,因此对算力需求也随之攀升。
u大模型参数量的增长,数据中心互联互通成为核心关键:在万亿级大数据的背景下,单卡/单服务器算力已经无法支撑庞大模型的训练,而芯片与芯片之间的互联成为重中之重,集群的效应显得尤为关键,因此在AI的大背景下,由于叶脊网络架构中的服务器交换流量较大,因此服务器与交换机互联的统一互联互通的数据中心均使用光模块,而光模块传输速度越高,证明其互联互通的效率也就越高,因此在整体算力芯片架构升级的大背景下,传输速率较高的光模块成为当下的首选。
光模块细分市场预测近年大模型的参数规模增长趋势
光模块细分市场预测
资料来源:新浪,智东西,可创办日报,Lightcoun
您可能关注的文档
- 2024年度下半年宏观经济与大类资产配置展望:冷眼向洋看世界.docx
- AI手机芯片-AI手机芯片有望成为最大端侧芯片市场.docx
- REITs产品书系列:华夏金茂商业REIT投资价值分析.docx
- REITs产品书系列:中金印力消费REIT投资价值分析.docx
- 半导体存储-利基型存储NOR Flash市场向好.docx
- 超长期信用债投资价值分析.docx
- 房地产-从三国个税收入视角看房价支撑.docx
- 金融债定价机制系列报告之三:详解浙江农商联合银行模式、浙江农商行金融债-240725-申万宏源-18页.docx
- 久立特材 产品高端引领未来,技术创新铸就辉煌.docx
- 如何理解人民币汇率快速升值.docx
文档评论(0)