- 1、本文档共24页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
请仔细阅读本报告末页声明
证券研究报告|行业周报
2025年02月15日
通信
DeepSeek的启示:不容忽视的算力前端需求
DeepSeek对算力效率的提升一度让市场对算力的逻辑产生分歧,而随着DS用户数的增长,算力紧缺的现实却不容忽视。事实告诉我们,当用户规模爆发后,推理带来的前端需求将让AI算力的蛋糕越变越大。伴随近期AIAgent等热点技术快速落地以及各深度学习架构的快速进展,叠加海内外各巨头均增加AI相关投资,AI应用的需求起量已成为必然趋势。而AI应用起量将带动算力前端需求迅速增长。我们认为,伴随AI应用增长推动计算集群由十万卡向百万卡规模迈进,其中GPU与光模块的配比关系将从传统的线性协同预期向超线性依赖方向演进。
【前后端适配:性能与数据需求驱动】
以往市场普遍认为计算集群中每块GPU通常配备3个光模块,主要用于横向互联(GPU-GPU)和CPU的连接。而随着未来技术演进以及计算集群规模的大幅扩张,光模块配比将大幅上升,以用于更高的前后端带宽适配:
NVLink:一种点对点连接接口,目前最高可实现8:1甚至更高的GPU对GPU直连,计算集群所需的高带宽、低延迟要求越高,GPU-GPU直连数量越多,导致光模块数量激增。
NVSwitch:基于NVLink的一种硬件交换机,可支持16个甚至更多的GPU之间的高带宽通信,实现“每个GPU到其他所有GPU”之间的直接数据传输,GPU数量越多所需光模块比例越高。
更高吞吐的存储前端:数据吞吐量增加拉动存储需求增加,而采用高IOPS存储(如HBM+PCleGen5/6+CXL)则可能需要更多光连接以避免存储成为瓶颈。
外部数据接入优化:模型推理任务对实时数据流、外部数据库或云端数据输入依赖更大,导致前端光模块需求上升。
【应用场景:低延迟、高带宽将成主流】
从模型训练以及推理视角来看,大模型训练阶段虽模型参数巨大,但GPU-GPU通信是主要瓶颈,传统3倍光模块即可满足需求。而在推理以及应用阶段,计算集群需接入海量外部数据(多模态数据、数据流、IoT设备等),需要更强的前端IO和数据传输带宽,导致光模块需求大增。从数据流架构来看,传统HPC或AI训练的数据基本在本地高带宽存储和GPU互联之间传输,对光模块需求较低。而AI推理所需的CDN式数据访问(分布式数据存储+云计算源,AI推理中主要解决带宽有限、延迟高问题)则需要高吞吐的光连接。
我们认为,伴随未来大量AI应用落地,海量的外部数据和AI推理实时响应的特性将驱动低延迟、高宽带的光互连成为主流,光模块在大规模AI集群的作用将持续扩大。同时AI推理和应用侧对高IO、低时延数据流的需求增加,未来随着存算分离、光互连、CXL、分布式计算的发展,光模块需求在AI数据中心中的占比可能持续上升。
增持(维持)
增持(维持)
行业走势
通信沪深300
50%38%26%14% 2%-10%
2024-022024-062024-102025-02
作者
分析师宋嘉吉
执业证书编号:S0680519010002
邮箱:songjiaji@
分析师黄瀚
执业证书编号:S0680519050002
邮箱:huanghan@
分析师石瑜捷
执业证书编号:S0680523070001
邮箱:shiyujie@
相关研究
1、《通信:算力依旧——Capex点亮创新之路》2025-02-09
2、《通信:光交换,有望引领下一个光子通信时代》2025-02-07
3、《通信:DeepSeek:模型效率的革命,算力基建的新起点》2025-02-04
P.2请仔细阅读本报告末页声明
2025年02月15日
【AI推理:仍需大规模集群,高速率光模块将逐步普及】
目前超大规模AI推理如大模型API服务、搜索推荐、AIAgent在推理时需要跨多个GPU访问键值缓存,如xAI采用了十万卡集群用于推理、DeepSeek由于访问数过多频繁出现“服务器繁忙”问题均说明大规模推理仍有需求。
AI推理数据吞吐远超训练阶段,高速率光模块将迎来产品切换。AI模型训练时通常使用本地数据集,而推理阶段需要接收海量的外部数据,这将导致数据中心需要更高速率、更低延
文档评论(0)