网站大量收购闲置独家精品文档,联系QQ:2885784924

DeepSeek核心十问十答.docx

  1. 1、本文档共24页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

目录

TOC\o1-2\h\z\u一、DeepSeek模型密集更新,高性能+低成本促进用户数高增 1

第一问:DeepSeek的用户量趋势? 1

第二问:R1和Janus-pro模型的性能如何? 2

第三问:如何看待DeepSeek-V3模型的训练成本? 5

二、技术不断革新,大模型ScalingLaw仍有效 7

第四问:DeepSeek-V3/R1技术革新有哪些? 7

第五问:Janus系列模型技术革新有哪些? 12

第六问:DeepSeek数据集的特点是什么? 13

2.3第七问:ScalingLaw到底是否有效? 14

三、DeepSeek-R1促进AI平权,产业链享受发展红利 16

第八问:R1是否意味着AI平权已经实现? 16

第九问:DeepSeek出圈对产业的影响有几何? 19

四、投资建议 22

4.1第十问:DeepSeek将带来哪些投资机会? 22

风险分析 23

一、DeepSeek模型密集更新,高性能+低成本促进用户数高增

第一问:DeepSeek的用户量趋势?

DeepSeek坚定开源路线,密集更新MoE、推理、多模态模型。近期,DeepSeek连续发布并开源多个大模型,其低成本、高性能的特性迅速引发全球用户的关注。其中,2024年12月26日发布的DeepSeek-V3为671B

参数的自研MoE模型,运行时仅需激活37B,在14.8Ttoken的数据上进行了预训练;2025年1月20日发布的DeepSeek-R1为660B的高性能推理模型,对用户开放思维链输出,允许用户通过蒸馏技术借助R1训练其他模型;2025年1月27日,DeepSeek在HuggingFace平台上传了视觉模型Janus-Pro和多模态理解模型JanusFlow-1.3B,进一步在图像领域发力。

表1:DeepSeek关键模型发布时间

时间 模型名称 模型类型 简介

2023年

11月2日

2023年

11月29日

DeepSeekCoder 代码大模型

DeepSeekLLM 通用大模型

覆盖1B,7B,33B多个尺寸,包含Base模型和指令调优模型,帮

助用户进行代码生成、bug修复、数据分析等工作。

包含7B和67B的基础模型及指令微调版本,同时开放下载训练中途的9个模型checkpoints,在推理、编码、数学和中文理解等方面表现出色。

2024年

1月11日

2024年

DeepSeekMoE 通用大模型基于自研全新MoE架构,在2B、16B、145B(发布时尚处于早期实

验)三个尺度模型上均实现效果领先,显著优化计算量。

以DeepSeek-Coder-V1.57B为基础,在数学相关token以及自然

2月6日 DeepSeekMath 数学推理模型语言和代码数据上进行500Btokens的预训练,在数学测试中取得

较好表现

2024年

3月11日

2024年

月7日

2024年

DeepSeek-VL 多摸态大模型对训练数据、模型架构和训练策略进行联合拓展,其1.3B和7B模

型能高效处理高分辨率图像,捕捉关键语义和细节信息。

DeepSeek-V2 通用大模型总参数236B,每个token激活21B,在8.1万亿token的语料

库上预训练,支持128Ktokens,大幅节省训练成本。

从DeepSeek-V2中间检查点开始,进一步预训练6万亿token,

月17日DeepSeek-Coder-V2 通用大模型

增强了编码和数学推理能力,包含236B和16B两种参数规模,在编

码和数学基准测试中超越主流闭源模型。

2024年

12月13日

2024年

DeepSeek-VL2 多模态大模型覆盖3B、16B、27B多个尺寸,通过DeepSeek-MoE架构配合动态切

图,支持视觉定位、梗图解析、OCR、故事生成等任务。

自研MoE模型,671B参数,每个token激活37B,在14.8T

12月26日 DeepSeek-V3 通用大模型

token上进行了预训练,性能对齐海外领军闭源模型。

660B模型,在后训练阶段大规模使用了强化学习技术,在仅有极少

2025年

1月20日

DeepSeek-R1 推理

您可能关注的文档

文档评论(0)

535600147 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档