网站大量收购闲置独家精品文档,联系QQ:2885784924

芯片行业分析:HBM技术迭代升级,3D混合键合设备材料成为关键发力点(69页).pptxVIP

芯片行业分析:HBM技术迭代升级,3D混合键合设备材料成为关键发力点(69页).pptx

  1. 1、本文档共69页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

HBM技术迭代,3D混合键合助力设备材料

HBM加速迭代,市场空间足:HBM突破“内存墙”,实现高带宽高容量,成为AI芯片最强辅助,我们认为HBM将持续迭代,I/O口数量以及单I/O口速

率将逐渐提升,HBM3以及HBM3e逐渐成为AI服务器主流配置,且产品周期相对较长,单颗容量及配置颗数逐步增加,预计HBM4于2026年发布。2024

年全球HBM市场有望超百亿美元,市场空间足,国产供应链加速配套。

HBM3海力士率先引入MR-MUF,HBM4剑指混合键合:当前HBM采用“TSV+Bumping”+TCB键合方式堆叠(TSV一般由晶圆厂完成,封测厂可在堆叠环节

进行配套),但随着堆叠层数的增加散热效率很差,TCB不再满足需求,海力士率先引入MR-MUF回归大规模回流焊工艺,芯片之间用液态环氧模塑

料作为填充材料,导热率比TC-NCF中的非导电薄膜高很多,但海力士也预计HBM4会引入混合键合HybridBonding方案,取消互连凸块。我们预判

当前HBM主流依然是TCB压合,MR-MUF方案为过渡方案,未来混合键合是大趋势。液态塑封料LMC依然是晶圆级封装至关重要的半导体材料之一。

混合键合与TSV是3D封装的核心,HBM“连接”与“堆叠”带来设备材料端发展新机遇:混合键合分为晶圆对晶圆W2W和芯片对晶圆D2W,3DNAND使

用W2W,典型案例为长鑫存储的Xstacking,CMOS层+存储层采用W2W混合键合方案,预计HBM未来亦会采用W2W方案,W2W与D2W方案相比一般应用于

良率非常高的晶圆,避免损失。根据我们产业链研究,混合键合将充分带动永久键合设备与减薄+CMP需求,根据BESI官方数据,预计存储领域未

来贡献混合键合设备明显增量,保守预计2026年需求量超过200台,减薄+CMP亦成为重要一环。当前HBM方案主要带动固晶机、临时键合与解键合、

塑封装备以及TSV所需的PECVD、电镀、CMP等设备;材料端则是TSV电镀液、塑封料等。

相关标的:包括封测环节:通富微电(先进封装)、长电科技(先进封装)等;设备环节:拓荆科技(PECVD+ALD+键合设备)、华海清科(减薄

+CMP)、华卓精科(拟上市,键合设备)、芯源微(临时键合与解键合)等;材料环节:华海诚科(环氧塑封料)、天承科技(RDL+TSV电镀添加

剂)、艾森股份(先进封装电镀)等

2

目录

b01HBM—突破“内存墙”

b02AI算力快速迭代,HBM为最强辅助

3

b0HBM核心—“连接”与“堆叠”,3D混合键合成趋势

b04HBM核心设备材料,替代进行时

b05相关标的

3

HBM—突破“内存墙”

CPU与存储之间“内存墙”:随着摩尔定律的不断迭代,CPU运行速度快速提升,CPU主频高达5GHz,而DRAM内存性能取决于电容

充放电速度以及DRAM与CPU之间的接口带宽,存储性能提升远慢于CPU,DRAM内存带宽成为制约计算机性能发展的重要瓶颈;

DRAM:DDR4内存主频为2666~3200MHz,带宽为6.4GB/s,但是在AI应用中(高性能计算/数据中心),算力芯片的数据吞吐量峰值

在TB/s级,主流的DRAM内存或显存带宽一般为几GB/s到几十GB/s量级,与算力芯片存在显著的差距,“内存墙”由此形成。以

Transformer类模型为例,模型大小平均每两年翻410倍,AI硬件上的内存大小仅仅是以每年翻2倍的速率在增长;

内存墙问题不仅与内存容量大小有关,也包括内存的传输带宽;内存容量和传输的速度都大大落后于硬件的计算能力。

图:2018年~2025年台积电先进工艺制程节点图:AI与内存墙

数据来源:TSMC、《AIandMemoryWall》(AmirGholami等人)、《高带宽存储器的技术演进和测试挑战》(陈煜海等人)、华金证券研究所

您可能关注的文档

文档评论(0)

+ 关注
实名认证
文档贡献者

科技咨询师一级持证人

该用户很懒,什么也没介绍

领域认证该用户于2024年08月17日上传了科技咨询师一级

1亿VIP精品文档

相关文档