网站大量收购独家精品文档,联系QQ:2885784924

2024 人工智能专题研究系列六:豆包大模型迎来重磅更新,AI应用繁荣推动算力基础设施建设.docxVIP

2024 人工智能专题研究系列六:豆包大模型迎来重磅更新,AI应用繁荣推动算力基础设施建设.docx

  1. 1、本文档共23页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

Yd源达

证券研究报告/行业研究

报告日期:2024年12月31日

投资评级:看

投资评级:看好

豆包大模型重磅更新,有望带动Al应用市场繁荣

分析师:吴起涤

2024年12月火山引擎冬季FORCE原动力大会推出豆包视觉理解大模型和3D生产大模型,并对通用模型Pro、音乐生产模型和文生图模型性能升级。根据智源研究院发布的FlagEval“百模”评测结果,豆包通用模型Pro在大语言模型总榜中主观评测得分最高,豆包视觉理解模型和文生图模型在多模态模型主观测评中得分第二。豆包视觉理解大模型和3D生产大模型具备的内容识别、视觉描述和3D内容生成能力进一步增强Al应用实用性,而使用成本相比行业价格可降低85%,有望推动Al应用市场的商业繁荣。

人工智能指数与沪深300指数走势对比大模型的大规模商业化应用已成熟,拉动算力基础设施建设

人工智能指数与沪深300指数走势对比

——人工智能指数——沪深30040%20%0%-20%-40%2024/12024/52024/9资料来源:,源达信息证券研究所人工智能行业已跨过Al大模型大规模成熟商业化应用的节点,国内厂商加大对AlAgent等新一代人工智能应用的投入。

——人工智能指数——沪深300

40%20%0%

-20%

-40%

2024/12024/52024/9

资料来源:,源达信息证券研究所

1

1.《人工智能专题研究系列一:大模型推动各行业AI应用渗透》2023.08.02

2.《人工智能专题研究系列二:Al大模型开展算力竞赛,推动Al

基础设施建设》2023.08.03

3.《人工智能专题研究系列三:Gemini1.0有望拉动新一轮Al产业革新,算力产业链受益确定性强》2023.12.12

4.《人工智能专题研究系列四:OpenAl发布Sora文生视频模型,Al行业持续高速发展》

2024.02.19

5.《人工智能专题研究系列五:Kimi智能助手热度高涨,国产大模型加速发展》2024.03.26

6.《数据中心液冷技术专题研究:算力扩建浪潮下服务器高密度、高耗能特征显著,催动液冷技术市场快速扩容》2024.08.15

人工智能行业带动算力基础设施建设趋势下,服务器、液冷设备、芯片及光模块等是供应链的核心环节。1)服务器:服务器是算力载体,Al服务器比普通服务器对算力及存储性能要求更高,2024年全球普通AI服务器和高端AI服务器出货量分别为72.5和54.3万台,分别同比增长54.2%和172.0%。2)液冷设备:液冷服务器具有低能耗、高散热优点,符合高算力数据中心需求;3)芯片:芯片是算力大脑,卡脖子风险最高,国产芯片亟待突破。4)光模块:800G和1.6T高端光模块用量有望大幅提升,国产公司在全球市场具有领先地位。

投资建议

豆包大模型产品力大幅提升,并大幅降低人工智能大模型使用成本,有望推动AI应用的商业繁荣。建议关注服务器、液冷设备、芯片和光模块等领域的投资机会:1)服务器:浪潮信息、中科曙光;2)液冷设备:英维克;3)芯片:海光信息;4)光模块:中际旭创、天孚通信、光迅科技。

风险提示

Al应用渗透不及预期;算力开支不及预期;宏观经济不及预期;竞争加剧。

源达

目录

一、豆包大模型产品力大幅增强,推动AI应用商业繁荣 4

二、人工智能产业加快增长,应用及算力是两大支柱 8

三、算力产业链:服务器是算力基础设施 11

1.大模型打开算力需求,服务器建设规模快速增长 11

2.液冷技术低能耗高散热,受益算力扩建浪潮 12

四、算力产业链:芯片是智能核心,国产化短板明显 16

五、算力产业链:光模块快速放量,产品结构向高端升级 18

六、投资建议 21

1.建议关注 21

2.行业重点公司一致盈利预测 21

七、风险提示 22

图表目录

图1:豆包大模型产品矩阵丰富 4

图2:豆包视觉理解模型具备更强内容识别能力 5

图3:豆包视觉理解模型具备更强理解和推理能力 5

图4:火山引擎首次发布豆包3D生成模型 5

图5

文档评论(0)

gayl22 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档