自然语言处理算法工程师岗位招聘考试试卷及答案.docVIP

自然语言处理算法工程师岗位招聘考试试卷及答案.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

自然语言处理算法工程师岗位招聘考试试卷及答案

一、填空题(10题,每题1分)

1.NLP最基础的预处理任务是______。

2.常见词嵌入模型含Word2Vec、GloVe和______。

3.Transformer核心组件是______注意力。

4.机器翻译常用评估指标是______。

5.BERT的掩码方式是______。

6.LSTM的三个门控是输入门、遗忘门和______。

7.PLM的核心是______学习。

8.文本生成解码策略有束搜索和______。

9.NER目标是识别文本中的______实体。

10.Transformer位置编码作用是______。

答案:

1.分词2.FastText3.自4.BLEU5.掩码语言模型(MLM)6.输出门7.通用语义8.贪心解码9.命名(如人名/地名)10.添加序列位置信息

二、单项选择题(10题,每题2分)

1.不属于RNN变体的是?A.LSTMB.GRUC.TransformerD.Bi-RNN

2.BERT输入不包含?A.TokenEmbeddingB.SegmentEmbeddingC.PositionEmbeddingD.ContextEmbedding

3.词向量常用维度上限是?A.100B.300C.1000D.2000

4.生成式预训练模型是?A.BERTB.RoBERTaC.GPTD.ALBERT

5.注意力QKV维度关系是?A.d_k=d_vB.d_k≠d_vC.d_kd_vD.d_kd_v

6.非统计分词方法是?A.最大匹配B.词频分词C.神经网络分词D.正向最大匹配

7.文本生成召回指标是?A.BLEUB.ROUGEC.PerplexityD.Accuracy

8.LSTM遗忘门作用是?A.保留当前状态B.输入新信息C.输出状态D.以上都不是

9.Transformer多头注意力头数常用?A.1B.8/16C.32D.64

10.NER常用深度学习模型是?A.CRFB.Bi-LSTM+CRFC.SVMD.NaiveBayes

答案:

1.C2.D3.B4.C5.A6.C7.B8.A9.B10.B

三、多项选择题(10题,每题2分,多选/少选/错选不得分)

1.NLP核心任务含?A.文本分类B.机器翻译C.图像识别D.语音合成

2.BERT特点是?A.双向TransformerB.MLMC.句子对预训练D.单向生成

3.词嵌入作用含?A.语义表示B.降维C.上下文捕捉D.加速计算

4.文本生成评估指标含?A.BLEUB.ROUGEC.PerplexityD.F1-score

5.Transformer组件含?A.多头注意力B.前馈网络C.循环单元D.位置编码

6.LSTM优势是?A.解决梯度消失B.长距离依赖C.并行计算D.参数量少

7.PLM微调方式含?A.分类头微调B.全参数微调C.适配器微调D.零样本学习

8.NER类型含?A.人名识别B.地名识别C.机构名识别D.关系抽取

9.文本分类模型含?A.CNNB.RNNC.BERTD.SVM

10.注意力作用含?A.权重分配B.长距离依赖捕捉C.并行计算D.减少计算量

答案:

1.AB2.ABC3.AC4.ABC5.ABD6.AB7.ABCD8.ABC9.ABCD10.AB

四、判断题(10题,每题2分,√/×)

1.Word2Vec分CBOW和Skip-gram。

2.BERT用单向Transformer。

3.LSTM解决RNN梯度消失。

4.BLEU越高翻译质量越好。

5.分词是NLP第一步预处理。

6.FastText结合词级和字符级嵌入。

7.Transformer无循环结构可并行。

8.PLM只能用于分类。

9.ROUGE是生成文本召回指标。

10.注意力QKV必须来自不同输入。

答案:

1.√2.×3.√4.√5.√6.√7.√8.×9.√10.×

五、简答题(4题,每题5分)

1.简述Transformer多头注意力作用。

答案:多头注意力将QKV拆分为多个子空间,每个头学习不同维度的语义关系(如语法/语义依赖);多头发散信息融合后,增强长序列理解能力,提升任务性能。

2.对比Word2Vec和GloVe异同。

答案:同:均为预训练词向量,捕捉语义相似性;异:Word2Vec基于局部上下文(窗口内)学习,GloVe基于全局词共现矩阵学习,可利用全局统计信息。

3.文本分类一般流程。

答案:1.预处理(分词、去停用词、词嵌入);2.特征提取(词袋/TF-IDF/预训练向量);3.模型训练(CNN/RNN/BERT);4.评估(Accuracy/F1);5.部署。

4.什么是PLM?核心思想?

答案:PLM是大规模无标注文本预训练的通用语言模型;核心是“预训练+微调”:先学通用语义,再针对

文档评论(0)

试卷文库 + 关注
实名认证
文档贡献者

竭诚服务

1亿VIP精品文档

相关文档