全文可编辑-AI算力行业市场前景及投资研究报告:算力互连复盘,网络互连带宽增速.pptVIP

全文可编辑-AI算力行业市场前景及投资研究报告:算力互连复盘,网络互连带宽增速.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

行业研究报告AI算力跟踪深度:算力互连复盘与展望——网络互连带宽的增速来自哪里?2025年7月23日

核心观点通过复盘海外算力互连环节近两年的主要产业变化与市场走势,我们认为此轮25Q2及后续行情与23Q2、24Q1-Q2行情相比,产业链的成长逻辑已经发生了改变,主要有以下四大趋势:1.算力硬件需求从锚定云厂商CapEx到锚定处理Token数2.算力芯片从依赖GPU到GPU+ASIC并存3.技术迭代从光模块、PCB、交换机、网卡等产品级别的升级,转为网络架构级别整体升级4.网络互连升级重心从ScaleOut拓展至ScaleUp,两类网络共同提升,单芯片带宽提升因此我们认为我们认为后续算力互连需求发展存在乘数效应:?资本开支结构优化,算力芯片增长速度高于资本开支增速:芯片需求资在CapEx占比×芯片投资性价=CapE×算力芯片投?单芯片带宽提升,互连需求增速高于芯片增速:算力互连需求=芯片需求×单芯片带宽投资建议:我们认为随着用户消耗Token速度提升,更大的ScaleUp超节点具备的推理性能优势会越放越大,我们认为采用PCB+铜互连+光互连扩张ScaleUp超节点的方案是潜在最优解之一,互连带宽需求有望随着“乘数效应”实现快速增长,且光连接、铜连接、PCB等各种互连方式都有望深度受益瓜分增量互连需求,相关标的——光互连:中际旭创,新易盛,天孚通信,源杰科技,长光华芯,长芯博创,仕佳光子,致尚科技,太辰光;铜互连:兆龙互连,中际旭创,鸿腾精密;PCB:胜宏科技,景旺电子,沪电股份,生益电子。风险提示:算力互连需求不及预期;客户处份额不及预期;产品研发落地不及预期;行业竞争加剧。

目录23Q2:从应用到算力,ScaleOut网络需求凸显24Q1-Q2:Sora、GB200等软硬新产品+财报拉动景气度25Q2起:逻辑深化产业链增速高于Capex芯片增速投资建议及风险提示1

股价复盘中际旭创、新易盛收益率走势及复盘大盘反弹,Q1业绩撑住,明年订单上修,海外算力景气度预期反转,GPU与ASIC共振,行业增速快于Capex增速(结构、技术)中际旭创新易盛1400%大盘波动,三个季度业绩未超1200%1000%800%600%400%200%0%预期;CPO、Deepseek、关税连续杀估值,英伟达、微软、亚马逊等负面消息杀预期春节后大盘反弹,英伟达发布GB200,云厂Capex高增GPT出圈后挖掘出上游算力产业链,数据中心需求和订单持续上修订单预期不再上修,与应用一起下杀-200%2资料:Wind,东吴证券研究所

一、23Q2:从应用到算力,ScaleOut网络需求凸显3

1.23Q2:从应用到算力,ScaleOut网络需求凸显我们认为大模型显现之初市场认知的AI算力有以下特点:两层ScaleOut网络架构?通用计算切换至GPU加速计算?模型参数量、算力、数据量均指数级提升?胖树(Fat-Tree)架构成为首选,Scaleout网络需求激增三层ScaleOut网络架构人工智能模型算力需求变化4资料:英伟达,张楠等《光计算和光电智能计算研究进展》,东吴证券研究所

1.23Q2:从应用到算力,ScaleOut网络需求凸显?传统云计算数据中心流量以“南北向”(用户到服务器)为主,网络架构多呈收敛型(如金字塔形),带宽逐层收敛。?AI大模型训练则以“东西向”(服务器之间,即GPU之间)流量为主,要求在庞大的计算集群内部实现高带宽、低延迟的无阻塞互联。为此,胖树(Fat-Tree)架构成为AI首选。该架构理论上“无收敛”,从“叶”到“根”的各层级网络带宽保持充裕,以满足LLM训练中数据并行、流水线并行等产生的大量内部通信需求。Fat-tree无阻塞网络架构5资料:FS,东吴证券研究所

1.23Q2:从应用到算力,ScaleOut网络需求凸显?在典型的Fat-Tree架构下,为了实现GPU间的无阻塞通信,所需的高速光模块数量与GPU数量存在高配比关系。以一个由128台H100服务器(1024个H00GPU)组成的集群为例,总共需要1536个800G光模块和1024个400G光模块。?相比之下,传统云计算的算力需求不仅总量较低,且光模块多为中低速率,因此光通信,特别是800G及未来更高速率的产品,已从过去的辅助角色转变为AI基础设施的核心高价值组件。典型H100集群ScaleOut网络6资料:ATOP,东吴证券研究所

二、24Q1-Q2:英伟达业绩+GB200新品拉动景气度7

2.24Q1-Q2:Sora、GB200等软硬新产品+财报拉动景气度?Sora推高多模态推理需求预期。2024年Q1OpenAI推出全新的生成式人工智能模型“Sora”,文生视频的效果令人惊艳,Sora所需推

您可能关注的文档

文档评论(0)

anhuixingxing + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档