自然语言处理工程师岗位招聘考试试卷及答案.docVIP

自然语言处理工程师岗位招聘考试试卷及答案.doc

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

自然语言处理工程师岗位招聘考试试卷及答案

自然语言处理工程师岗位招聘考试试卷及答案

一、填空题(共10题,每题1分,共10分)

1.Word2Vec的两种核心模型是CBOW和______。

答案:Skip-gram

2.jieba分词的______模式会切分所有可能的词语(无冗余)。

答案:全模式

3.Transformer架构的核心是______机制,用于建模长距离依赖。

答案:自注意力

4.BERT预训练任务包括MaskedLanguageModel和______。

答案:NextSentencePrediction(NSP)

5.机器翻译评估指标BLEU的全称是______。

答案:BilingualEvaluationUnderstudy

6.中文词性标注常用标注集是______。

答案:北大词性标注集

7.依存句法分析中,除根节点外每个词仅有一个______。

答案:父节点

8.ASR的全称是______。

答案:AutomaticSpeechRecognition

9.GPT系列采用______(自回归/自编码)预训练范式。

答案:自回归

10.文本分类特征表示方法除词袋模型外,还有______。

答案:TF-IDF

二、单项选择题(共10题,每题2分,共20分)

1.以下非Transformer架构的模型是?

A.BERTB.GPTC.LSTMD.T5

答案:C

2.jieba搜索引擎模式的主要作用是?

A.精确切分B.召回候选词C.实体识别D.长文本处理

答案:B

3.BLEU指标中n-gram权重变化趋势是?

A.均匀B.1-gram最高C.随n递增D.随n递减

答案:D

4.以下属于自编码模型的是?

A.GPT-3B.BERTC.GPT-2D.T5

答案:B

5.词性标注中“NN”表示?

A.名词B.动词C.形容词D.副词

答案:A

6.不属于文本相似度计算的方法是?

A.余弦相似度B.Jaccard相似度C.欧氏距离D.交叉熵

答案:D

7.Transformer多头注意力的核心作用是?

A.并行计算B.多维度依赖捕捉C.减少参数量D.加速训练

答案:B

8.用于文本聚类的常用工具是?

A.spaCyB.scikit-learnKMeansC.jiebaD.BERTopic

答案:B

9.预训练模型微调冻结底层参数的原因是?

A.泛化能力强B.不重要C.减少计算D.防过拟合

答案:A

10.端到端机器翻译的特点是?

A.直接输入输出B.需人工特征C.仅编码器D.仅解码器

答案:A

三、多项选择题(共10题,每题2分,共20分)

1.属于预训练语言模型的有?

A.BERTB.GPTC.LSTMD.XLNet

答案:ABD

2.中文分词方法包括?

A.词典法B.统计法C.深度学习法D.规则法

答案:ABCD

3.文本生成评估指标有?

A.BLEUB.ROUGEC.PerplexityD.F1

答案:ABC

4.Transformer编码器组成部分?

A.多头注意力B.前馈网络C.残差连接D.层归一化

答案:ABCD

5.属于文本分类的任务是?

A.情感分析B.新闻分类C.实体识别D.问答系统

答案:AB

6.词向量表示方法有?

A.Word2VecB.GloVeC.FastTextD.BERTEmbedding

答案:ABCD

7.依存句法分析的用途?

A.语义角色标注B.机器翻译C.问答系统D.文本摘要

答案:ABCD

8.自回归模型有?

A.GPT-1B.BERTC.T5D.GPT-2

答案:AD

9.文本预处理步骤包括?

A.分词B.去停用词C.词干提取D.词性标注

答案:ABC

10.NLP开发工具包括?

A.TensorFlowB.PyTorchC.spaCyD.NLTK

答案:ABCD

四、判断题(共10题,每题2分,共20分)

1.CBOW用上下文预测中心词。

答案:对

2.BERT预训练时所有词都被Masked。

答案:错

3.Transformer解码器是双向注意力。

答案:错

4.词性标注可直接用于依存句法分析。

答案:对

5.GPT是自编码模型。

答案:错

6.BLEU越高翻译质量一定越好。

答案:错

7.jieba精确模式切分最合理。

答案:对

8.ASR和TTS属于NLP子领域。

答案:对

9.XLNet解决BERT的Mask问题。

答案:对

10.Perplexity越低生成质量越好。

答案:对

五、简答题(共4题,每题5分,共20分)

1.简述CBOW与Skip-gram的核心区别。

答案:CBOW用上下文(多词)预测中心词,将上下文向量平均后输入网络,输出中心词概率;Skip-gram用中心词预测上下文(多词),中心词向量输入,输出多个上下文词概率。CBOW训练快、适合高频词;

文档评论(0)

。。 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档