网站大量收购闲置独家精品文档,联系QQ:2885784924

传媒-DeepSeek带来的AI变革.pdf

  1. 1、本文档共2页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

华福证券传媒

20250130

年月日

传媒强于大市(维持评级)

究DeepSeek带来的AI变革一年内行业相对大盘走势

投资要点:

一、用户量:海外加速出圈,迅速登顶全球下载榜单

1、网页端:重度用户为主,DeepSeek在24年12月26日推出

V3(对标GPT4o),因其显著的性能,用户迅速开始增长,同时在1

月20日发布R1(对标GPT-o1)后,进一步出圈。

2、APP端:大众用户为主,R1推出后,追平GPT-o1,迅速出圈

团队成员

海外。根据点点数据,从DeepSeek在美国下载排名从1月22日的201

业分析师:杨晓峰(S0210524020001)

名,迅速在1月27日登顶第一名;根据七麦数据,截止1月30日,yxf30436@

DeepSeek在168个国家位居下载榜第一名。联系人:甄熙茹(S0210124060059)

zxr30607@

踪二、DeepSeek偏好激进性创新:架构(MOE+MLA)+精度(FP8)相关报告

1、Grok:从X到Tesla或全量预装GrokAI——

1、MOE架构创新:相比过去主流模型的MOE专家模型停留在2025.01.08

8~16个,而DeepSeek每个MoE层包含1个共享专家和256个路由专2、“小米+金山云”AI产业链——2025.01.03

3、字节AI版小红书Lemon8:AI内容崛起——

家,有助于降低模型推理时激活的参数量。2024.10.15

2、MLA架构创新:MLA通过联合压缩键值矩阵为低秩向量,

将多个头的键值信息融合,使推理时仅需缓存少量低秩向量,大幅降

低KV缓存需求,减少内存占用。

3、训练特色:突破大模型训练固定思维(一般模型权重和梯度使

用FP16,优化器参数使用FP32),敢于尝试在低精度FP8的模式下

训练大模型,并且该尝试同样出现了较好的效果。

三、DeepSeek开源对AI应用和AI终端的影响:产品力竞争时代

华福证券

DeepSeek从V3到R1,将进一步推动全行业大模

您可能关注的文档

文档评论(0)

186****0576 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:5013000222000100

1亿VIP精品文档

相关文档