AI 大模型微调工程师岗位招聘考试试卷及答案.docVIP

AI 大模型微调工程师岗位招聘考试试卷及答案.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

AI大模型微调工程师岗位招聘考试试卷及答案

一、填空题(共10题,每题1分)

1.大模型微调中,仅更新部分参数(如适配器)的方法称为______微调。

2.LoRA(低秩适应)通过在______和______矩阵中插入低秩矩阵实现参数高效微调。

3.微调数据集通常需标注______,匹配模型输出格式。

4.HuggingFaceTransformers加载预训练模型的核心类是______。

5.学习率过高会导致______,过低会训练缓慢。

6.指令微调核心是让模型学习______的映射关系。

7.PrefixTuning在输入前插入______。

8.分类任务常用______交叉熵损失。

9.显存不足可采用______(如梯度累积、混合精度)。

10.多模态微调需整合______和文本模态。

二、单项选择题(共10题,每题2分)

1.以下属于参数高效微调的是?

A.全参数微调B.LoRAC.数据增强D.模型蒸馏

2.LoRA利用矩阵______特性减少参数。

A.低秩分解B.正交性C.稀疏性D.对称性

3.指令微调提升模型______能力。

A.生成多样性B.任务泛化C.推理速度D.显存占用

4.HuggingFace分类任务Trainer默认损失函数是?

A.MSEB.交叉熵C.BCEWithLogitsLossD.HingeLoss

5.哪种情况无需微调?

A.预训练与目标分布差异大B.目标是预训练子任务

C.目标数据极少D.需适配特定领域

6.PrefixTuning可训练参数位于?

A.模型权重内部B.输入嵌入层前C.输出层后D.注意力层中间

7.混合精度训练优化______。

A.训练速度B.显存占用C.两者都是D.模型精度

8.梯度累积作用是______。

A.减少轮数B.模拟大批次C.提升精度D.减少过拟合

9.指令微调适合______数据集。

A.单任务标注B.多任务指令-输出C.无标注文本D.图像分类

10.全参数微调优势是______。

A.训练快B.显存少C.任务适配强D.实现简单

三、多项选择题(共10题,每题2分)

1.大模型微调方法包括?

A.全参数微调B.LoRAC.PrefixTuningD.PromptTuning

2.微调前准备工作有?

A.标注数据集B.选预训练模型C.配置框架D.准备GPU

3.LoRA适用场景?

A.显存不足B.数据量小C.多任务快速适配D.追求极致性能

4.指令微调关键要素?

A.多样化指令B.高质量输出C.明确任务边界D.大批次训练

5.显存优化策略?

A.混合精度B.梯度累积C.模型并行D.数据并行

6.微调常用框架?

A.HuggingFaceTransformersB.PyTorchLightningC.TensorFlowKerasD.FastAPI

7.属于PEFT的是?

A.LoRAB.AdapterTuningC.PromptTuningD.全参数微调

8.微调需监控的指标?

A.训练损失B.验证准确率C.学习率D.显存占用

9.多模态微调整合的模态?

A.文本B.图像C.音频D.视频

10.指令微调与PromptTuning区别?

A.指令微调用任务指令,PromptTuning用提示词B.指令微调针对多任务

C.指令微调需标注,PromptTuning不需要D.两者都是参数高效方法

四、判断题(共10题,每题2分)

1.LoRA可应用于Transformer所有层。()

2.全参数微调效果一定比PEFT好。()

3.指令微调无需标注数据。()

4.混合精度训练降低模型精度。()

5.PrefixTuning参数比LoRA多。()

6.数据量越大微调效果越好。()

7.HuggingFaceTrainer可自动处理梯度累积。()

8.多模态微调仅需文本+图像。()

9.梯度累积增加训练时间。()

10.指令微调提升零样本能力。()

五、简答题(共4题,每题5分)

1.简述LoRA核心原理。

2.指令微调主要优势是什么?

3.微调前数据集准备工作有哪些?

4.说明混合精度训练的逻辑及优势。

六、讨论题(共2题,每题5分)

1.对比全参数微调与LoRA的适用场景及优缺点。

2.指令微调中设计高质量指令集的原则(至少3个)。

---

答案部分

一、填空题答案

1.参数高效

2.注意力Query;注意力Value(顺序可换)

3.目标标签

4.AutoModel

5.过拟合/训练不稳定

6.指令到输出

7.可训练前缀向量

8.分类

9.显存优化策略

10.图像(或音频、视频等合理模态)

二、单项选择题答案

1.B2.A3.B4.B5.B6.B7.C8.B9.B10.C

三、多项选择题答案

1.ABCD2.ABCD3.ABC4.AB5.ABCD6.ABC7

文档评论(0)

试卷文库 + 关注
实名认证
文档贡献者

竭诚服务

1亿VIP精品文档

相关文档