网站大量收购独家精品文档,联系QQ:2885784924

大模型面试题-9-大模型(LLMs)微调面.pdf

大模型面试题-9-大模型(LLMs)微调面.pdf

  1. 1、本文档共16页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

大模型(LLMs)微调面

来自:AiGC面试宝典

宁静致远2023年12月24日00:44

大模型(LLMs)微调面

•1.如果想要在某个模型基础上做全参数微调,究竟需要多少显存?

•2.为什么SFT之后感觉LLM傻了?

•3.SFT指令微调数据如何构建?

•4.领域模型ContinuePreTrain数据选取?

•5.领域数据训练后,通用能力往往会有所下降,如何缓解模型遗忘通用能力?

•6.领域模型ContinuePreTrain,如何让模型在预训练过程中就学习到更多的知识?

•7.进行SFT操作的时候,基座模型选用Chat还是Base?

•8.领域模型微调指令数据输入格式要求?

•9.领域模型微调领域评测集构建?

•10.领域模型词表扩增是不是有必要的?

•11.如何训练自己的大模型?

•12.训练中文大模型有啥经验?

•13.指令微调的好处?

•14.预训练和微调哪个阶段注入知识的?

•15.想让模型学习某个领域或行业的知识,是应该预训练还是应该微调?

•16.多轮对话任务如何微调模型?

•17.微调后的模型出现能力劣化,灾难性遗忘是怎么回事?

•18.微调模型需要多大显存?

•19.大模型LLM进行SFT操作的时候在学习什么?

•20.预训练和SFT操作有什么不同

•21.样本量规模增大,训练出现OOM错

•22.大模型LLM进行SFT如何对样本进行优化?

•23.模型参数迭代实验

•24.微调大模型的一些建议

•25.微调大模型时,如果batchsize设置太小会出现什么问题?

•26.微调大模型时,如果batchsize设置太大会出现什么问题?

•27.微调大模型时,batchsize如何设置问题?

•28.微调大模型时,优化器如何?

•29.哪些因素会影响内存使用?

•30.进行领域大模型预训练应用哪些数据集比较好?

•31.用于大模型微调的数据集如何构建?

•32.大模型训练loss突刺原因和解决办法

•32.1大模型训练loss突刺是什么?

•32.2为什么大模型训练会出现loss突刺?

•32.3大模型训练loss突刺如何解决?

1.如果想要在某个模型基础上做全参数微调,究竟需要多少显

存?

一般nB的模型,最低需要16-20nG的显存。(cpuoffload基本不开的情况下)

vicuna-7B为例,官方样例配置为4*A10040G,测试了一下确实能占满显存。(globalbatchsize

128,maxlength2048)当然训练时用了FSDP、梯度累积、梯度检查点等方式降显存。

2.为什么SFT之后感觉LLM傻了?

•原版答案:

SFT的重点在于激发大模型的能力,SFT的数据量一般也就是万恶之源alpaca数据集的52k量级,

相比于预训练的数据还是太少了。

如果抱着灌注领域知识而不是激发能力的想法,去做SFT的话,可能确实容易把LLM弄傻。

•新版答案:

指令微调是为了增强(或解锁)大语言模型的能力。

其真正作用:

指令微调后,大语言模型展现出泛化到未见过任务的卓越能力,即使在多语言场景下也能有不错表

现。

3.SFT指令微调数据如何构建?

1.代表性。应该选择多个有代表性的任务;

2.数据量。每个任务实例数量不应太多(比如:数百个)否则可能会潜在地导致过拟合问题并影

响模型性能;

3.不同任务数据量占比。应该平衡不同任务的比例,并且限制整个数据集的容量(通常几千或几

万),防止较大的数据集压倒整个分布。

4.领域模型ContinuePreTrain数据选取?

技术标准文档或领域相关数据是领域模型ContinuePreTrain的关键。因为领域相关的网站和资讯重

要性或者知识密度不如书籍和技术标准。

5.领域数据训练后,通用能力往往会有所下降,如何缓解模型遗

忘通用能力?

•动机:仅仅使用领域数据集进行模型训练,模型很

文档评论(0)

189****7098 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档