网站大量收购独家精品文档,联系QQ:2885784924

详解DeepSeek: 模型训练、优化及数据处理的技术精髓-km.docx

详解DeepSeek: 模型训练、优化及数据处理的技术精髓-km.docx

  1. 1、本文档共23页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

DeepSeek是什么

DeepSeek是杭州深度求索人工智能基础技术究有公司推出的一款创新大语言模型。公司成立于2023年7月17日,由知名私募巨头幻方量化孕育而生。DeepSeek致力于开发和应用先进的大语言模型技术

深度小助手 聪明且低成本 聪明强大能干 中国本土AI

深度思考 联网搜索

深度思考

联网搜索

DeepSeek:大语言模型的特点有哪些?

内容token化模型训练存在endtim

内容token化

模型训练存在endtime

无自我认识无自我意识

上下文长度限定记忆力有限

回答输出长度有限

大模型看到的世界与人看到的太一样

训练前需要

理,比切割称为Token

文本进行处

的基本单元;比问ai一个英文单词illegal中有几个字母l,有些指令模型回答为2个;

但deepseekr1推理模型是可以回答正确!

大模型训练语料存在一个截止时间

deepseekR1虽然是25年1月发布,但它的知识库截止日期是2023年12月,这就意味着ds可以提供在此日期发布之前的公开信息和常识;需要经过大量清洗、监督微调、反强化学习。但对于之后的新闻、事件变化、新事物则无法直接获取或验证。

解决办法是开启联网模式或提示词中补充说明

网上有个段子是“有人问deepseek你是谁,然后回答是gpt”

目前AI大模型

是谁,也知道自己是采

知道自己

用什么模型。除非是厂商在后期再微调、或再训练,

果大家问到类似的问题,可能目前的AI大模型会回答错误。

解决办法是少问AI是谁、采用什么模型

AI大模型目前的记忆力大概是64k~128k

目前AI大模型均有上下文长度定;deepseekr1提供64ktoken上下文长度,对应中文的话大约3万

~4万字。目前还能一次性投喂太长的文档给它,比:一本完成西游记、或者非常长的文档让它翻译,AI它是没有办法完整读完

解决办法是分成多次投喂

AI大模型目前的回答4k~8k,2000~4000字

目前AI大模型无法一次性完成万字长文,也无法一次性输出5千字,均是模型输出长度制所致;果是输出长文,可以尝试先让AI大模型先生成一个目录,然后再根据目录输出对应模块;果是长文翻译类,则多次输入,或者拆解后多次调用API

解决办法是任务分解成多次

DeepSeek发展由来

布局集卡

投入10亿手握万卡

GPT3.5发布

V2发布GPT4o发布

Llama-3.1发布

V3发布

R1登录nvidia官网

2019年 2020年

2022年3月

2024年5月

2024年7月

2024年底

2025年1月31号

补充1:ChatGPT需要上万张NVIDIAA100显卡,国内主要玩家:百度、字节、腾讯、阿里、商汤、幻方补充2:nvidia官网/explore/discover

来自杭州深度求索公司,系一家成立于2023年。使用数据蒸馏技术,得到更为精炼、有用的数据。由知名私募巨头幻方量化全资孕育而生,专注于开发先进的大语言模型(LLM)和相关技术。

DeepSeek为什么火:一个足够优秀的模型变得人人免费拥有

一、技术突破:为什么DeepSeek的模型值得关注? 二、开源生态:DeepSeek何改变开发者社区?

模型架构与训练效率优化

架构改进:MLA多层注意力架构、FP8混合精度训练框架、DualPipe跨节点通信训练策略:采用混合精度训练(BF16+FP8)和梯度累积策略

数据质量与领域适配

数据筛选:多模态数据清洗

领域微调:“领域渐进式微调”(ProgressiveDomainFine-tuning)策略

开放模型与工具链

全量开源:DeepSeek开源了完整训练代码、数据清洗Pipeline和领域微调工具包(DeepSeek-

Tuner),极大降低复现和二次开发门槛

轻量化部署:提供模型压缩工具(4-bit量化适配TensorRT-LLM)

社区驱动创新

开发者基于DeepSeek模型快速构建垂直应用金融场景

教育场景

三、行业落地:DeepSeek推动的技术范式迁移 四、行业竞争格局:DeepSeek的“鲶鱼效应”

从“通用模型”到“领域专家”

传大模型(GPT-3.5)依赖PromptEngineering适配行业需求,而DeepSeek通过预训练阶段嵌入领域知识,减少后期微调成本

成本革命

通过模型压缩和高效推理框架,企业可基于单卡部署专业模型,推理成本降至GPT-4API的1/50

:某电商客服系用DeepSeek-7B替代GPT-4,单次交互成本从0.06降至0.001,日均处理量提升10倍。

倒逼闭源模型降价

DeepSeek的开源策

您可能关注的文档

文档评论(0)

kxg4040 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档