网站大量收购独家精品文档,联系QQ:2885784924

寒冬过后 存储芯片波澜再起.docxVIP

  1. 1、本文档共2页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

寒冬过后存储芯片波澜再起

大模型时代科技公司加大了对人工智能的投入,算力膨胀有赖于存储性能的提升,用于高性能GPU的HBM芯片供不应求。模组厂商则从移动存储市场出发,逐步发展至固态硬盘及嵌入式存储领域,AIPC的产业趋势增加对更高速率DDR5内存的需求,这将有助于推动内存模组配套芯片及内存接口芯片需求的提升。

大模型带来人工智能应用的兴起,对算力的追求导致所需的存储规模膨胀。AIPC和AI手机对存储的速度要求高,HBM成为AI服务器的内存之选。HBM是一种基于3D堆栈工艺的高性能DRAM,通过增加带宽,扩展内存容量,让更大的模型、更多的参数留在离核心计算更近的地方,从而减少运算延迟,适用于高带宽需求的场景。

全球HBM芯片由SK海力士、三星和美光生产,英伟达即将发布下一代GPU——采用Blackwell架构的B100芯片,其存储器规格将采用HBM3E,由SK海力士和美光供货。

DRAM规格向DDR5和LPDDR5转变,DDR5、LPDDR5每千兆字节的价格比DDR4和LPDDR4更高,PC、服务器接口亦向DDR5、LPDDR5转变。美光估计AI服务器的DRAM容量约为普通服务器的6-8倍,海力士估计AI服务器的DRAM容量约为普通服务器的2-4倍。

由于AIPC需要更高带宽的内存提升整体运算性能,AIPC的产业趋势或将加速DDR5在PC端的渗透率,并增加对更高速率DDR5内存的需求,这将有助于推动SPD等内存模组配套芯片及CKD芯片需求的提升。

由于存储芯片晶圆成本占比较高,各第三方模组厂均需要围绕成本进行产出优化,主要路径包括建立产业链合作关系、自建封测厂、自研主控芯片等,模组厂可深度参与多种应用芯片的架构设计,可与芯片供应商合作开发更贴近终端需求的存储应用芯片,甚至可以自研主控芯片,从而提升自身产品差异化优势,优化芯片采购成本。

在NAND市场,存储原厂主要聚焦于自主品牌的企业级或数据中心级固态硬盘和嵌入式存储产品,并且逐步退出移动存储市场。模组厂则主要从移动存储市场出发,提升自身产品竞争力,凭借差异化竞争逐步发展至固态硬盘及嵌入式存储领域。在DRAM内存市场,存储原厂的DRAM市场规模有较大的浮动,但存储模组厂占据的市场规模整体较稳定,市场规模在160亿-180亿美元,约占DRAM市场的16%-25%,且呈现上升趋势。

文档评论(0)

ZC强 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档