AI 大模型算法工程师岗位招聘考试试卷及答案.docVIP

AI 大模型算法工程师岗位招聘考试试卷及答案.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

AI大模型算法工程师岗位招聘考试试卷及答案

AI大模型算法工程师岗位招聘考试试卷及答案

第一部分:填空题(共10题,每题1分)

1.Transformer模型的核心组件包括______、前馈神经网络、残差连接和层归一化。

2.BERT模型的两大预训练任务是掩码语言模型(MLM)和______。

3.大模型参数高效微调(PEFT)的典型方法是______(低秩适应)。

4.Transformer中多头注意力的总维度d_model等于______乘以头数。

5.GPT-3.5默认上下文窗口长度为______(单位:token)。

6.大模型部署常用推理框架包括TensorRT和______。

7.LoRA方法中,通常冻结原模型的______层,仅训练低秩矩阵。

8.BPE算法的作用是______。

9.大模型推理优化技术包括量化和______。

10.GPT系列属于______(自回归/自编码)模型。

填空题答案

1.自注意力机制

2.下一句预测(NSP)

3.LoRA

4.每个头的维度(head_dim)

5.4096

6.ONNXRuntime

7.大部分

8.压缩词汇表,优化文本编码效率

9.模型蒸馏

10.自回归

第二部分:单项选择题(共10题,每题2分)

1.以下哪种不是PEFT方法?

A.LoRAB.FullTuningC.QLoRAD.AdapterTuning

2.Transformer自注意力时间复杂度(n为序列长,d为隐藏层维度):

A.O(n2d)B.O(nd2)C.O(n3d)D.O(nd)

3.属于自编码模型的是:

A.GPTB.BERTC.LLaMAD.Mistral

4.大模型量化的主要作用不包括:

A.减少内存B.提升速度C.保持精度不变D.降本

5.LoRA低秩矩阵r的一般取值:

A.1-10B.10-100C.100-1000D.任意

6.模型并行的作用是:

A.拆分数据B.拆分参数到多GPUC.提升单GPU性能D.减少轮次

7.以下是大模型多模态任务的是:

A.文本生成B.图像理解C.语音翻译D.以上都是

8.INT8量化比FP32量化:

A.内存少B.精度高C.速度慢D.无差异

9.PromptTuning核心是:

A.训练原参数B.训练软提示C.蒸馏D.量化

10.Meta发布的开源大模型是:

A.LLaMAB.MistralC.FalconD.Qwen

单项选择题答案

1.B2.A3.B4.C5.A6.B7.D8.A9.B10.A

第三部分:多项选择题(共10题,每题2分,多选/少选/错选不得分)

1.大模型预训练任务包括:

A.MLMB.CLMC.NSPD.对比学习

2.PEFT方法包括:

A.LoRAB.QLoRAC.PromptTuningD.AdapterTuning

3.推理优化技术包括:

A.量化B.蒸馏C.模型并行D.数据并行

4.Transformer核心组件包括:

A.自注意力层B.前馈网络C.残差连接D.层归一化

5.大模型多模态能力涵盖:

A.文本生成B.图像理解C.语音合成D.代码生成

6.部署常用工具包括:

A.TensorRTB.ONNXRuntimeC.TorchServeD.FastAPI

7.训练正则化方法包括:

A.权重衰减B.DropoutC.梯度裁剪D.学习率调度

8.属于PEFT的开源模型:

A.LLaMA-AdapterB.QLoRAC.PromptTuningD.FullTuning

9.上下文学习(ICL)特点:

A.无需微调B.依赖promptC.需少量示例D.提升泛化

10.模型蒸馏作用:

A.压缩大小B.保持性能C.提升速度D.降本

多项选择题答案

1.ABCD2.ABCD3.ABCD4.ABCD5.ABCD6.ABCD7.ABC8.ABC9.ABCD10.ABCD

第四部分:判断题(共10题,每题2分,√/×)

1.Transformer自注意力是双向的。()

2.BERT是自回归模型,GPT是自编码模型。()

3.LoRA仅训练低秩矩阵,不更新原参数。()

4.大模型上下文窗口越大性能越好。()

5.量化会略降精度,但提升推理速度。()

6.GPT-4支持多模态输入。()

7.PromptTuning属于PEFT。()

8.大模型训练无需文本预处理。()

9.模型并行可拆分参数到多GPU。()

10.蒸馏小模型推理比原大模型快。()

判断题答案

1.√2.×3.√4.×5.√6.√7.√8.×9.√10.√

第五部分:简答题(共4题,每题5分,200字左右)

1.简述LoRA的核心思想及优势。

2.简述Transformer自注意力计算步骤。

3.简述大模型预训练与微调的区别。

4.简述大模型推理量化原理及常用方法。

简答题答案

文档评论(0)

试卷文库 + 关注
实名认证
文档贡献者

竭诚服务

1亿VIP精品文档

相关文档