- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
AI大模型微调工程师岗位招聘考试试卷及答案
一、填空题(共10题,每题1分)
1.大模型微调中,仅更新部分参数(如适配器)的方法称为______微调。
2.LoRA(低秩适应)通过在______和______矩阵中插入低秩矩阵实现参数高效微调。
3.微调数据集通常需标注______,匹配模型输出格式。
4.HuggingFaceTransformers加载预训练模型的核心类是______。
5.学习率过高会导致______,过低会训练缓慢。
6.指令微调核心是让模型学习______的映射关系。
7.PrefixTuning在输入前插入______。
8.分类任务常用______交叉熵损失。
9.显存不足可采用______(如梯度累积、混合精度)。
10.多模态微调需整合______和文本模态。
二、单项选择题(共10题,每题2分)
1.以下属于参数高效微调的是?
A.全参数微调B.LoRAC.数据增强D.模型蒸馏
2.LoRA利用矩阵______特性减少参数。
A.低秩分解B.正交性C.稀疏性D.对称性
3.指令微调提升模型______能力。
A.生成多样性B.任务泛化C.推理速度D.显存占用
4.HuggingFace分类任务Trainer默认损失函数是?
A.MSEB.交叉熵C.BCEWithLogitsLossD.HingeLoss
5.哪种情况无需微调?
A.预训练与目标分布差异大B.目标是预训练子任务
C.目标数据极少D.需适配特定领域
6.PrefixTuning可训练参数位于?
A.模型权重内部B.输入嵌入层前C.输出层后D.注意力层中间
7.混合精度训练优化______。
A.训练速度B.显存占用C.两者都是D.模型精度
8.梯度累积作用是______。
A.减少轮数B.模拟大批次C.提升精度D.减少过拟合
9.指令微调适合______数据集。
A.单任务标注B.多任务指令-输出C.无标注文本D.图像分类
10.全参数微调优势是______。
A.训练快B.显存少C.任务适配强D.实现简单
三、多项选择题(共10题,每题2分)
1.大模型微调方法包括?
A.全参数微调B.LoRAC.PrefixTuningD.PromptTuning
2.微调前准备工作有?
A.标注数据集B.选预训练模型C.配置框架D.准备GPU
3.LoRA适用场景?
A.显存不足B.数据量小C.多任务快速适配D.追求极致性能
4.指令微调关键要素?
A.多样化指令B.高质量输出C.明确任务边界D.大批次训练
5.显存优化策略?
A.混合精度B.梯度累积C.模型并行D.数据并行
6.微调常用框架?
A.HuggingFaceTransformersB.PyTorchLightningC.TensorFlowKerasD.FastAPI
7.属于PEFT的是?
A.LoRAB.AdapterTuningC.PromptTuningD.全参数微调
8.微调需监控的指标?
A.训练损失B.验证准确率C.学习率D.显存占用
9.多模态微调整合的模态?
A.文本B.图像C.音频D.视频
10.指令微调与PromptTuning区别?
A.指令微调用任务指令,PromptTuning用提示词B.指令微调针对多任务
C.指令微调需标注,PromptTuning不需要D.两者都是参数高效方法
四、判断题(共10题,每题2分)
1.LoRA可应用于Transformer所有层。()
2.全参数微调效果一定比PEFT好。()
3.指令微调无需标注数据。()
4.混合精度训练降低模型精度。()
5.PrefixTuning参数比LoRA多。()
6.数据量越大微调效果越好。()
7.HuggingFaceTrainer可自动处理梯度累积。()
8.多模态微调仅需文本+图像。()
9.梯度累积增加训练时间。()
10.指令微调提升零样本能力。()
五、简答题(共4题,每题5分)
1.简述LoRA核心原理。
2.指令微调主要优势是什么?
3.微调前数据集准备工作有哪些?
4.说明混合精度训练的逻辑及优势。
六、讨论题(共2题,每题5分)
1.对比全参数微调与LoRA的适用场景及优缺点。
2.指令微调中设计高质量指令集的原则(至少3个)。
---
答案部分
一、填空题答案
1.参数高效
2.注意力Query;注意力Value(顺序可换)
3.目标标签
4.AutoModel
5.过拟合/训练不稳定
6.指令到输出
7.可训练前缀向量
8.分类
9.显存优化策略
10.图像(或音频、视频等合理模态)
二、单项选择题答案
1.B2.A3.B4.B5.B6.B7.C8.B9.B10.C
三、多项选择题答案
1.ABCD2.ABCD3.ABC4.AB5.ABCD6.ABC7
原创力文档


文档评论(0)