通信Marvell AI Day总结:AI改变集群网络架构,光互联市场弹性充足.docxVIP

通信Marvell AI Day总结:AI改变集群网络架构,光互联市场弹性充足.docx

  1. 1、本文档共17页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

请务必阅读正文之后的免责声明及其项下所有内容1

证券研究报告|2024年04月15日

超配MarvellAIDay总结

超配

AI改变集群网络架构,光互联市场弹性充足

?行业研究·行业快评?通信?投资评级:超配(维持评级)

证券分析师:联系人:

马成龙

钱嘉隆

021machenglong@执证编码:S0980518100002

021qianjialong@

事项:

美国东部时间4月11日,Marvell举办AcceleratedInfrastructurefortheAIEra活动,对公司面向AI基础设施的产品布局和战略方向作介绍。2023年MarvellAI相关业务实现营收5.5亿美元,占公司整体业务收入10%;预计2024年营收超15亿美元,其中连接业务预计实现营收10亿美元,定制计算业务预计实现营收5亿美元,占公司整体营收比例将提升至30%。活动期间,MarvellCTONoamMizrahi分享了AI如何重塑网络架构的见解,其认为大规模AI集群中,光连接的增长速度有望超越加速单元(XPU)的增长速度。

国信通信观点:AI改变算力集群网络架构,DCI互联产生全新应用市场。Marvell将AI集群内部的网络连接分为三种类型——即用于芯片互联的计算单元互联网络、用于AI服务器互联的前端网络以及用于数据输入输出的后端网络;AI集群需要通过DCI网络接入外部网络。考虑到AI集群规模不断扩大,分布式的算力集群产生距离在10-20km的互联需求,DCI互联有望产生新的应用领域。

大规模AI集群中光互联增长弹性有望超越加速单元(XPU)。需求弹性层面,算力集群加速单元规模突破至10万、100万级别时,对应网络层数可能提升到5-10层,则加速单元:光模块的比值有望从目前的1:2-1:3上升到1:5-1:10,集群光模块的用量弹性将超越加速卡。同时价格弹性层面,AI推动光互联的速率升级周期从4年缩短至2年,高速产品迭代带动价值量提升。

AI集群互联市场有望维持高景气度。从Marvell互联业务可触及市场为例,预计2023-2028年CAGR可达27%,其中数据中心内光互联、铜互联对应CAGR分别为25%和59%,数据中心互联(DCI)CAGR为25%,AI集群互联市场景气度持续。

投资建议:AI改变算力集群网络架构,一方面单一训练集群规模持续扩大,互联需求和加速单元的比例关系有望进一步提升;另一方面,分布式的算力集群有望促进10-20km的DCI互联需要,加速“相关下沉”。综合来看,Marvell认为光互联需求的增长弹性有望超越加速单元,光互联市场有望维持高景气。持续推荐光器件光模块,重点关注中际旭创、天孚通信、新易盛、光迅科技等。

评论:

?AI改变算力集群网络架构

Marvell将AI集群内部的网络连接分为三种类型:

(1)计算单元互联(ComputeFabric):用于连接服务器内部多个加速单元(XPU),该连接通常基于铜材质的短距离连接,使用协议包括NVLink、InfinityFabric和PCIe等,具备超高带宽的速率要求。

(2)后端网络(BackendNetworks):用于将AI服务器与集群内的其他数千台AI服务器相连,每个XPU对应特定网卡(NIC),进而实现与交换机和其他AI服务器的连接。后端网络主要使用InfiniBand或以太网(Ethernet)协议,通常采用光互联。

请务必阅读正文之后的免责声明及其项下所有内容2

证券研究报告

(3)前端网络(FrontendNetworks):用于AI服务器所处理数据的输入及运行结果的输出,AI服务器的CPU通过NIC与数据中心的其余服务器、存储和其他交换机等环节实现连接。前端网络采用以太网光连接方案。

图1:含前端网络和后端网络的AI集群网络架构示意图

资料来源:Marvel

文档评论(0)

我爱分享 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档