- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
证券研究报告
关注存储扩产下的半导体设备机遇
电子行业强于大市(维持)
平安证券研究所TMT团队
分析师:杨钟S1060525080001(证券投资咨询)邮箱:YANGZHONG035@
詹小瑁S1060525120001(证券投资咨询)邮箱:ZHANXIAOMAO140@
2024年12月08日
请务必阅读正文后免责条款
核心观点
AI浪潮席卷全球,存储产业进入上行周期。2024年至今,AI训练工作负载的激增推动了存储市场新一轮增长,改写传统存储周期逻辑,
企业级AI资本开支成为重要支撑,驱动HBM、DDR4/DDR5及企业级SSD等市场大规模增长。据YoleGroup预测,2025年-2030年存储
市场收入将持续上涨,2024年至2030年的CAGR达10%;此外,预计2024年至2030年间,全球HBM收入将以33%的复合年增长率增
长,到本十年末,其在DRAM市场的份额有望达到前所未有的50%。
存储产业正进入产能扩张与量价齐升通道。为了增加Al和服务器所需的DRAM(包括HBM)的供应,2025年三星、SK海力士、美光这
三大DRAM原厂都在积极推动工艺的迁移,比如将DDR4产线转产DDR5,升级原有的DDR5产线转向HBM,以及对于部分产能的扩展,
这也导致DRAM原厂整体的资本支出同比增长超过80%。从资本开支与价格提升持续性来看,据TrendForce预测,DRAM产业的资本
支出在2026年将成长至613亿美元,年增率达14%,均价同比上升的幅度将达58%,ASP来到1.63美元;NANDFlash资本支出在2026
年预计增长至222亿美元,年增约5%,预计单价会实现32%的同比增长,ASP来到0.10美元。
国内存储扩产加速,核心设备迎来机遇。随着海外原厂将资本开支倾斜于HBM为代表的高端存储产品,传统存储的供需缺口具有持续
性,因此国内存储厂商扩产的紧迫性不断上升。目前,长鑫存储已完成IPO辅导,当前其在DDR5和LPDDR5产品上正实现显著增长,
Counterpoint预测,长鑫存储在DDR5市场的份额将从第一季度不到1%上升至年底的7%,在LPDDR5市场的份额将从0.5%激增至9%,
先进制程技术发展迅猛。近期,长江存储三期正式注册成立,若项目正式投产,长江存储的产能将实现跨越式增长,计划力争到2026
年底占据全球NAND闪存供应量的15%。而在存储扩产的必然趋势下,设备作为扩产的前置环节,迎来重要机遇窗口。例如,3D堆叠
存储快速发展,为提升存储密度,将存储单元垂直堆叠,目前主流产品已超过200层,未来还将向1000层迈进,这使得对刻蚀设备的
需求量和性能要求呈指数级增长,同时堆叠层数增加的同时每层薄膜厚度要求严苛,ALD与CVD协同工艺成为主流,这都对薄膜沉积
设备提出了更高要求。
投资建议:建议关注存储扩产背景下催生的上游半导体设备等领域投资机遇,半导体设备方面,建议关注北方华创、中微公司、拓荆科
技、华海清科、京仪装备、长川科技、芯源微、中科飞测、微导纳米等;除此之外,半导体材料及核心零部件方面,建议关注新菜应材、
江丰电子、富创精密、正帆科技、珂玛科技、石英股份,菲利华、汉钟精机、福晶科技、腾景科技、南大光电、鼎龙股份、安集科技等。
风险提示:1)供应链风险;2)国产产品性能不及预期的风险;3)市场需求不及预期的风险。
存储上行周期带来扩产机遇
AI拉动存储需求端爆发,行业进入上行周期
•多模态AI的爆发驱动存储系统的扩容与升级。随着大模型架构由单一文本交互加速向融合文本、图像及音视频的多模态方向演进,这一
技术路径的质变显著推升了模型训练与推理过程中的Tokens消耗量及数据生成规模。特别是以Sora2为代表的视频生成模型加速渗透与
迭代,对底层存储器的容量、带宽及低延迟性能提出了更为严苛的要求。据美光数据显示,AI服务器的DRAM容量需求是普通服务器的8
倍,NAND容量需求则达到3倍,单台AI服务器存储需求更是高达2TB,远超传统服务器的配置标准。更关键的是,AI大模型“训练-推理-
再训练”的正循环,使得数据存储需求呈现持续放大的态势,一个GPU节点就可能消耗数百GBDRAM和数TB闪存,超大规模数据中心的需
求规模更是呈指数级扩张。随着多模态技术渗透率持续提升及全模态模型的逐步落地,海量数据吞吐将成为常态,存储行业面临确定的
原创力文档


文档评论(0)