网站大量收购独家精品文档,联系QQ:2885784924

2025年DeepSeek洞察与大模型应用-人工智能技术发展与应用实践报告.docx

2025年DeepSeek洞察与大模型应用-人工智能技术发展与应用实践报告.docx

  1. 1、本文档共37页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

DeepSeek洞察与大模型应用

人工智能技术发展与应用实践

联通数据智能有限公司

史树明

2025年

目录

Contents

01

02

03

04

05

主流大模型与

主流大模型与

大慎型的应用场景

大慎型的应用场景

DeepSeek公司概况

?DeepSeek是私募量化巨头幻方量化旗下的一家大模型企业,成立于2023年5月份。

?幻方量化营收:作为中国头部量化对冲基金,曾管理资金规模超160亿美元(2019年),年管理费收入超过3亿美元。

-2-

DeepSeek-V3

。DeepSeek-V3(对标GPT-4o)于2024年12月26日推出,因其显著的性能,用户迅速开始增长

。。?Deepseek-V3仍是基于Transformer架构的模型,是一个强大的混合专家(MoE)模型,总共有671B个参数,生成每个token时激活37B参数

。?训练成本比Llama405B低一个量级

。?DeepSeek-V3所采用的技术:

?MLA多头潜在注意力机制(降低显存占用)

?MTP多token预测(提升效果、提升推理速度)

?FP8混合精度训练、DualPipe流水线、MoE负载均衡(提升训练效率,降低训练成本)

DeepSeek-V3多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和

世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。

-3-

DeepSeek-R1

DeepSeek-R1(对标GPT-o1)于2025年1月20日推出,随后DeepSeek进一步出圈

?R1推出后,追平GPT-o1,迅速出圈海外。从

DeepSeek在美国下载排名从1月22日的201名,迅速在1月27日登顶第一名;截止1月30日,DeepSeek在168个国家位居下载榜第一名

?DeepSeek-R1-Zero:一种通过大规模强化学习(RL)训练的模型,没有监督微调(SFT)作为初步步骤,展示了卓越的推理能力。通过强化学习,R1-Zero自然而然地出现了许多强大而有趣的推理行为;但是,遇到了可读性差和语言混合等挑战

?DeepSeek-R1:为了解决这些问题并进一步提高推理性能,DeepSeek团队引入了R1,它在RL之前结合了多阶段训练和少量冷启动数据。R1在推理任务上实现了与OpenAI-o1-1217相当的性能

-4-

DeepSeek模型效果(1/2):世界最顶尖模型的对比

nDeepSeek-V3和R1进入到国际顶尖模型行列

nDeepSeek-R1是综合效果最好的开源模型,排在众多优秀的开源和闭源模型前面

nQwen2.5-Max、GLM-4-Plus、Step-2-16K-Exp等国产模型也有不俗的表现

大模型竞技场(ChatbotArenaLLMLeaderboard,https://lmarena.ai/?leaderboard)

5更新日期:2025-2-11

5

DeepSeek模型效果(2/2)

nDeepSeek-V3和R1相对于700亿以下开源模型(以千问720亿为代表),多项能力明显提升,扩充了其能力边界

n

nDeepSeek-R1引入深度推理能力,在代码、数学、复杂规划等方面的能力显著增强,使得对于新场景的支持成为可能

n

-6-

DeepSeek不同版本对比

nV3vs.R1:R1在普通的中文和英文任务上性能小幅领先,在数学和代码等需要深度推理的场景下明显胜出

nR1蒸馏版vs.R1满血版:在数学、代码等场景下的性能有明显差距,蒸馏版参数量越小,与满血版差距越大

模型架构参数量激活参数R1的15亿蒸馏版稠密1.5B1.5BR1的70亿蒸馏版稠密7B7BR1的140亿蒸馏版稠密

模型

架构

参数量

激活参数

R1的15亿蒸馏版

稠密

1.5B

1.5B

R1的70亿蒸馏版

稠密

7B

7B

R1的140亿蒸馏版

稠密

14B

14B

R1的320亿蒸馏版

稠密

32B

32B

R1的80亿蒸馏版

稠密

8B

8B

R1的700亿的蒸馏版

稠密

70B

70B

DeepSeek-R1

MoE

671B

37B

DeepSeek-V3

MoE

671B

37B

模型

AIME

2024

MATH-

500

GPQA

Diamond

LiveCode

Bench

CodeForces

pass@1

pass@1

pass@1

pass@1

rating

R

文档评论(0)

哈哈 + 关注
实名认证
内容提供者

嗨,朋友,我都会用最可爱的语言和最实用的内容,帮助你更好地理解和应对职场中的各种挑战!

1亿VIP精品文档

相关文档