- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
AI大模型算法工程师岗位招聘考试试卷及答案
AI大模型算法工程师岗位招聘考试试卷及答案
第一部分:填空题(共10题,每题1分)
1.Transformer模型的核心组件包括______、前馈神经网络、残差连接和层归一化。
2.BERT模型的两大预训练任务是掩码语言模型(MLM)和______。
3.大模型参数高效微调(PEFT)的典型方法是______(低秩适应)。
4.Transformer中多头注意力的总维度d_model等于______乘以头数。
5.GPT-3.5默认上下文窗口长度为______(单位:token)。
6.大模型部署常用推理框架包括TensorRT和______。
7.LoRA方法中,通常冻结原模型的______层,仅训练低秩矩阵。
8.BPE算法的作用是______。
9.大模型推理优化技术包括量化和______。
10.GPT系列属于______(自回归/自编码)模型。
填空题答案
1.自注意力机制
2.下一句预测(NSP)
3.LoRA
4.每个头的维度(head_dim)
5.4096
6.ONNXRuntime
7.大部分
8.压缩词汇表,优化文本编码效率
9.模型蒸馏
10.自回归
第二部分:单项选择题(共10题,每题2分)
1.以下哪种不是PEFT方法?
A.LoRAB.FullTuningC.QLoRAD.AdapterTuning
2.Transformer自注意力时间复杂度(n为序列长,d为隐藏层维度):
A.O(n2d)B.O(nd2)C.O(n3d)D.O(nd)
3.属于自编码模型的是:
A.GPTB.BERTC.LLaMAD.Mistral
4.大模型量化的主要作用不包括:
A.减少内存B.提升速度C.保持精度不变D.降本
5.LoRA低秩矩阵r的一般取值:
A.1-10B.10-100C.100-1000D.任意
6.模型并行的作用是:
A.拆分数据B.拆分参数到多GPUC.提升单GPU性能D.减少轮次
7.以下是大模型多模态任务的是:
A.文本生成B.图像理解C.语音翻译D.以上都是
8.INT8量化比FP32量化:
A.内存少B.精度高C.速度慢D.无差异
9.PromptTuning核心是:
A.训练原参数B.训练软提示C.蒸馏D.量化
10.Meta发布的开源大模型是:
A.LLaMAB.MistralC.FalconD.Qwen
单项选择题答案
1.B2.A3.B4.C5.A6.B7.D8.A9.B10.A
第三部分:多项选择题(共10题,每题2分,多选/少选/错选不得分)
1.大模型预训练任务包括:
A.MLMB.CLMC.NSPD.对比学习
2.PEFT方法包括:
A.LoRAB.QLoRAC.PromptTuningD.AdapterTuning
3.推理优化技术包括:
A.量化B.蒸馏C.模型并行D.数据并行
4.Transformer核心组件包括:
A.自注意力层B.前馈网络C.残差连接D.层归一化
5.大模型多模态能力涵盖:
A.文本生成B.图像理解C.语音合成D.代码生成
6.部署常用工具包括:
A.TensorRTB.ONNXRuntimeC.TorchServeD.FastAPI
7.训练正则化方法包括:
A.权重衰减B.DropoutC.梯度裁剪D.学习率调度
8.属于PEFT的开源模型:
A.LLaMA-AdapterB.QLoRAC.PromptTuningD.FullTuning
9.上下文学习(ICL)特点:
A.无需微调B.依赖promptC.需少量示例D.提升泛化
10.模型蒸馏作用:
A.压缩大小B.保持性能C.提升速度D.降本
多项选择题答案
1.ABCD2.ABCD3.ABCD4.ABCD5.ABCD6.ABCD7.ABC8.ABC9.ABCD10.ABCD
第四部分:判断题(共10题,每题2分,√/×)
1.Transformer自注意力是双向的。()
2.BERT是自回归模型,GPT是自编码模型。()
3.LoRA仅训练低秩矩阵,不更新原参数。()
4.大模型上下文窗口越大性能越好。()
5.量化会略降精度,但提升推理速度。()
6.GPT-4支持多模态输入。()
7.PromptTuning属于PEFT。()
8.大模型训练无需文本预处理。()
9.模型并行可拆分参数到多GPU。()
10.蒸馏小模型推理比原大模型快。()
判断题答案
1.√2.×3.√4.×5.√6.√7.√8.×9.√10.√
第五部分:简答题(共4题,每题5分,200字左右)
1.简述LoRA的核心思想及优势。
2.简述Transformer自注意力计算步骤。
3.简述大模型预训练与微调的区别。
4.简述大模型推理量化原理及常用方法。
简答题答案
您可能关注的文档
最近下载
- 雨课堂2024秋-科研伦理与学术规范期末考试答案.docx VIP
- 西南科技大学《微观经济学》内部题库练习期末真题汇编及答案.docx
- 十年(2016-2025)高考语文真题分类汇编(全国通用)-专题14 标点符号(全国通用)(解析版+原卷版).docx VIP
- 房地产估价报告最新版本.doc VIP
- 单桩竖向抗压静载试验.ppt VIP
- 矿井通风课程设计.pdf VIP
- 2025年华医网继续教育炎症性皮肤病的诊疗策略及前沿进展题库答案.pdf VIP
- 河南省郑州市河南省实验中学2024—2025学年七年级上学期期末考试数学试卷(含图片答案).docx VIP
- 通桥(2021)4201-Ⅱ时速250公里高速铁路圆端形实体桥墩.pdf
- 高中生交通安全主题班会课件.ppt VIP
原创力文档


文档评论(0)