- 1、本文档共25页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
1
Accuracy
Accuracy/Percentile(%)
DeepSeek-R1:通过强化学习激励大语言模型的推理能力
左元翻译
日期:February2,2025
摘要
本文介绍了我们的第一代推理模型,DeepSeek-R1-Zero和DeepSeek-R1。DeepSeek-R1-Zero是通过大规模强化学习(RL)训练的模型,在没有使用监督微调(SFT)这个前置步骤的情况下,展示了卓越的推理能力。通过强化学习,DeepSeek-R1-Zero自然而然的展现出了许多强大而有趣的推理行为。然而,它也面临一些挑战,如可读性差和多语言混合等问题。为了解决这些问题并进一步提高推理性能,我们引入了DeepSeek-R1,该模型在强化学习之前结合了多阶段训练和冷启动数据。DeepSeek-R1在推理任务中的表现与OpenAI-o1-1217相当。为了支持研究社区,我们开源了DeepSeek-R1-Zero、DeepSeek-R1以及六个稠密模型(1.5B、7B、8B、14B、32B、70B),这六个稠密模型是使用DeepSeek-R1对Qwen和Llama蒸馏而来。
DeepSeek
DeepSeek-R1OpenAI-o1-1217DeepSeek-R1-32BOpenAI-o1-miniDeepSeek-V3
100
80
60
40
20
0
96.3
97.3
90.8
71.5
49.2
CodeforcesGPQADiamond
Codeforces
GPQADiamond
AIME2024
MATH-500
MMLU
图1:BenchmarkperformanceofDeepSeek-R1.
2
目录
1简介3
1.1贡献 3
1.2评估结果总结 4
2方法4
2.1概述 4
2.2DeepSeek-R1-Zero:在基础模型上进行强化学习 4
2.2.1强化学习算法 5
2.2.2奖励模型 5
2.2.3训练模板 5
2.2.4性能,自我进化过程和DeepSeek-R1-Zero的“顿悟”时刻 6
2.3DeepSeek-R1:带冷启动的强化学习 8
2.3.1冷启动 8
2.3.2推理导向的强化学习 9
2.3.3拒绝采样和监督微调 9
2.3.4针对所有场景的强化学习 9
2.4蒸馏:为小模型赋能推理能力 10
3实验10
3.1DeepSeek-R1的评估 11
3.2蒸馏模型的评估 12
4讨论13
4.1蒸馏v.s.强化学习 13
4.2不成功的尝试 13
5结论,局限性,和未来的工作14
3
1简介
近年来,大语言模型(LLMs)正在经历快速的迭代和进化,并正在逼近通用人工智能(AGI)。
最近,后训练已成为完整训练流程中的一个重要组成部分。研究表
文档评论(0)