AI应用侧深度渗透,驱动国产先进封装技术寻求突破.pdfVIP

AI应用侧深度渗透,驱动国产先进封装技术寻求突破.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

AI应用侧深度渗透,驱动国产先进封装技术寻

求突破

⚫DeepSeek在算法层面实现三大突破——通过低秩键值压缩(MLA)将注意力计

算内存占用降低80%,动态稀疏MoE架构使每个Token仅激活5.5%参数,以

及GRPO强化学习框架驱动模型自主进化多步推理能力。千亿参数模型在通用

任务上达到与密集模型相当的精度,同时降低37%推理延迟。模型的高效运行

仍依赖硬件层面的三重能力支撑:高并行计算、高存储带宽、超低延迟互连。

⚫效率提升≠需求下降:本质上,算法优化并非削弱算力产业价值,而是通过

重构需求结构打开更大市场空间——从集中式训练向分布式推理延展,从通

用计算向场景专用架构升级,最终形成万亿级算力市场的多级增长引擎。降

本→普及→增量的螺旋上升效应将推动Post-training微调算力激增、云端

推理并发量指数增长、边缘侧长尾需求爆发带来总算力需求。

⚫模型参数量、训练数据持续扩充,高性能算力芯需求仍高:单纯倚仗传统芯

片设计与制造通过缩小FET尺寸去提高芯片性能的方式效率降低,且规模化

边际减弱。更重要的是,对于不同场景化需求不同,高带宽,低延迟,高能效

比有更高要求,系统级线宽/线距瓶颈限制了高速数据在芯片之间、芯片与外

部存储器之间高效传输,严重制约了AI芯片性能的充分释放。先进封装是

“MoreThanMoore”(超越摩尔)时代的解决方案。

⚫封装技术正逐步从PCB的层面,向芯片内部(即IC层面)转变:采用2.5D

和3D封装技术,不再依赖传统的PCB作为主连接平台,而是直接将多个IC

芯片通过转接板(interposer,如硅转接板、玻璃转接板等)进行集成。2.5D

封装技术的核心在于TSV、Interposer、RDL、Bumps,各大厂商基于这些组装

以达到不同客户需求。据YOLE预测,2023年全球先进封装营收约378亿美

元,占半导体封装市场的44%;2024年增长至425亿美元,至2029年,先进

封装营收有望增长至695亿美元,年复合增长率11%,其中2.5D/3D封装渗

透率最快。

⚫投资建议:关注2.5D/3D封装技术核心前道设备厂商、基板材料及OSAT厂

商。

◼设备厂商:北方华创、拓荆科技、盛美上海、中微公司

◼基板材料厂商:兴森科技

◼OSAT厂:长电科技、通富微电

⚫风险提示:1、2.5D\3D封装及其他先进封装难度较大,良率有待改善,或影

响利润;2、前期设备投入及研发成本较高;3、AI应用落地速度不及预期

曙光在前金元在先

-1-

一、DeepSeek架构上的突破-算法层面解决算力效率问题

DeepSeek从模型的输入处理阶段到计算阶段再到模型的输出阶

段进行深层次优化,显著提升算力效率,使得其在训练阶段以及

推理阶段在保持模型性能的同时,减少冗余计算,从而塑造出更

高性价比模型。

传统Transformer模型的自注意力机制存在显著的计算瓶颈:处

理n长度序列时需构建n²规模的注意力矩阵,导致内存和计算复

2

杂度均呈()增长。以1024长度序列为例,单头注意力矩阵即

需4MB存储,叠加多头多层结构后硬件资源极易耗尽。在推理场

景中,由于需实时逐Token生成文本,重复计算历史Token的键

值数据会引发指数级资源消耗。

DeepSeek通过引入KV缓存机制实现突破性优化:将历史Token

的键值向量存储复用,仅计算新Token的查

文档评论(0)

Seeker研报 + 关注
实名认证
文档贡献者

如果有被下架的,可以私我发你,欢迎垂询各种研究报告!也可以咨询定制获取特定主题报告,欢迎光临!

1亿VIP精品文档

相关文档