海力士HBM产业链和先进封装产业链分析报告,可编辑培训课件.pptx

海力士HBM产业链和先进封装产业链分析报告,可编辑培训课件.pptx

  1. 1、本文档共58页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

海力士HBM产业链和先进封装产业链梳理——AI行业跟踪报告第26期2023年11月19日

目录1、英伟达发布H200,HBM3e是核心变化2、HBM需求7年200倍成长,龙头海力士MF-MUF技术是核心工艺3、先进封装大势所趋,CoWoS是产业链瓶颈4、投资建议:关注海力士HBM供应链与先进封装供应链投资机会5、风险提示2

1、英伟达发布最新H200GPU?根据芯智讯信息,英伟达(Nvidia)于北美时间2023年11?13?上午在“Supercomputing23”会议上正式发布了全新的H200GPU,以及更新后的GH200产品线。?H200依然是建?在现有的HopperH100架构之上,但增加了更多?带宽内存(HBM3e),从?更好地处理开发和实施??智能所需的?型数据集,使得运??模型的综合性能相?前代H100提升了60%到90%。?更新后的GH200,也将为下?代AI超级计算机提供动?。图表1:英伟达全新H200GPU3资料:芯智讯

1、英伟达发布最新H200GPU:HBM容量大幅提升图表3:英伟达H200与H100、A100比较?对?H200与H100的规格,H200主要负责计算能?的核?单元部分规格并没有改变,算?规模完全?致,所带来的提升只是显存容量从80GB提?到了141GB,显存的规格从原本的HBM3升级到了HBM3e。图表2:英伟达生态日益完善4资料:英伟达公开路演PPT《ndr_presentation_oct_2023_final》资料:anandtech、镁客网、网易新闻

1、英伟达发布最新H200GPU:推理性能显著提升?由于H200本?算?部分并没有变化,因此换?H200并不会对AI?模型的训练速度产?更好的影响,以训练175B??的GPT-3举例,同规模的H200?概只?H100快10%左右。?H200主要的提升之处在于推理”:推理对于算?的需求并不?,限制反?在于单芯?的显存??以及显存带宽,如果应?到多GPU的互联,那么信息通信的带宽反?会不够。即便如NVLink提供的900GB/s的数据通信速度,也?法媲美单卡内部超过3TB/s的速度,更不?说换了HBM3e显存后?达4.8TB/s的性能。更?的单卡显存容量也能有效减少跨卡访问的次数,算是?种变相的效率提升。?买的越多,省得越多。随着当前AI?语?模型逐步迈向应?化,计算任务的重?已经由早期的训练模型转变为应?端的推理?为。?H200对?H100的推理能耗直接减半,极?降低了使?成本。图表4:英伟达H200与H100的大模型应用性能比较图表5:英伟达H200和H100的成本和能耗比较5资料:英伟达、镁客网、网易新闻资料:英伟达、镁客网、网易新闻

1、英伟达发布最新H200GPU图表6:英伟达GPU产品路线图6资料:英伟达公开路演PPT《ndr_presentation_oct_2023_final》

1、英伟达发布最新H200GPU:HBM3e是重中之重?H200的141GB内存,与H100的80GB相?直接提升76%。作为?款搭载HBM3e内存的GPU,内存带宽也从3.35TB/s提升?4.8TB/s,提升43%。在HBM3e加持下,H200让Llama-70B推理性能?乎翻倍,运?GPT3-175B也能提?60%。图表8:英伟达H200参数?H200与H100完全兼容,意味着将H200添加到已有系统中不需要做任何调整。?141GB内存的原因:AnandTech分析HBM3e内存本?物理容量144GB,由6个24GB的堆栈组成。出于量产原因,英伟达保留了??部分作为冗余,以提?良品率。?H200预计在2024年第2季度上市,但H200只存续半年。在2024年的第4季度,基于下?代Blackwell架构的B100也将问世。图表7:英伟达各款GPU在GPT-3大模型的运行比较7资料:英伟达、量子位、新浪微博资料:英伟达、量子位、新浪微博

目录1、英伟达发布H200,HBM3e是核心变化2、HBM需求7年200倍成长,龙头海力士MF-MUF技术是核心工艺3、先进封装大势所趋,CoWoS是产业链瓶颈4、投资建议:关注海力士HBM供应链与先进封装供应链投资机会5、风险提示8

2、HBM市场需求:7年200倍?2023年11?14?,SK海??副会?兼联席CEO朴正浩透露,2023年海???带宽内存(HBM)出货量?幅增加?50万颗,预计到2030年将达到每年1亿颗。图表9:AI服务器将驱动DRAM需求大增资料:海力士公开路演PPT《hynixTechSeminar(2023)》

2、海力士在HBM3和DDR5全球市场份额第一名图表10:海力士在HBM3和

您可能关注的文档

文档评论(0)

anhuixingxing + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档