AI和“东数西算”双轮驱动,服务器再起航(2024).docxVIP

AI和“东数西算”双轮驱动,服务器再起航(2024).docx

  1. 1、本文档共71页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

证券研究报告|行业深度报告2024年2月19日

电子

行业评级强于大市(维持评级)

AI和“东数西算”双轮驱动,服务器再起航

--服务器行业深度报告

证券分析师:

戴晶晶执业证书编号:S0210523040003

请务必阅读报告末页的重要声明

2

投资要点

?服务器作为算力发动机,海内外需求共振。国家发展改革委等部门关于深入实施“东数西算”工程加快构建全国一体化算力网的实施意见,其中提到算力是数字经济时代的新型生产力,以算力赋能经济发展为主线,发挥全国一体化算力网络国家枢纽节点引领带动作用,协同推进“东数西算”工程,并构建联网调度的全国一体化算力网。海外自2022年OpenAi发布的ChatGPT将大型语言生成模型和AI推向新高度以来,全球各大科技巨头纷纷拥抱AIGC。大模型通常包含数亿级的参数,需要消耗大量算力。服务器作为算力的发动机,算力需求的增长将迎来AI服务器及服务器需求的快速增长。

?AI服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCIe插槽、散热和等。服务器CPU架构包括X86、ARM、MIPS和RISC-V等。AI芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,AI芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他

ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NANDFlash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。

?从服务器和AI服务器构成看,芯片和存储都是核心,决定着AI服务器的算力和宽带大小。传统的通用型服务器中,售价10424美金的2xIntelSapphireRapidsServer,CPU的成本占比约17.7%,内存和硬盘占比超过50%。而AI服务器,售价为268495美金的NvidiaDGXH100中,CPU占比仅1.9%,GPU占比高达72.6%。内存价值量提升,但占比下降至4.2%左右。AI服务器较通用服务器价值量提升明显。

?投资建议:建议关注服务器产业链整机生产商中科曙光、弘信电子、朗科科技和零部件厂商等核心环节相关机遇,如芯片厂商海光信息、龙科中芯,存储厂商朗科科技,内存接口厂商澜起科技,接口厂商裕太微,服务器散热厂商飞荣达,服务器电源厂商欧陆通等。

?风险提示:地缘政治风险,AI发展不及预期,客户认证及产品验证不及预期风险。

n第一部分:AI服务器成为算力发动机

n第二部分:AI服务器产业链解析

n第三部分:上市公司梳理及投资建议

n第四部分:风险提示

3

4

1.1服务器行业演进历程

图表1:服务器行业演进历程

本地IT部署云端IT部署AI特定算力需求5G、物联网应用

GPU

GPU、FPGA、

ASIC中心

边缘“云+边缘”的部署架构形势已成市场共识,

边缘

“云+边缘”的部署架构形势已成市场共识,

边缘机房环境与传统数据中心迥异带来全

新增量市场。

神经网络需要更特殊的计算架构。AI极大的特定算力需求打开

神经网络需要更特殊的计算架构。AI极大的特定算力需求打开AI服务器蓝海市场

云端CPU

随着云技术成熟,下游云服务商深度定制化的云服务器成为市场增长的重要动力。

本地

本地

边缘服务器AI服务器AI服务器云服务器云服务器云服务器IT部署形势仍以本地

边缘服务器

AI服务器

AI服务器

云服务器

云服务器

云服务器

IT部署形势仍以本地构建数据中心为主。只有政府、金融机构和大型企业能够负担。

传统服务器传统服务器传统服务器传统服务器

传统服务器

传统服务器

传统服务器

传统服务器

2012年前后2016年前后2020年之后

您可能关注的文档

文档评论(0)

186****0576 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:5013000222000100

1亿VIP精品文档

相关文档