- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
自然语言处理工程师岗位招聘考试试卷及答案
自然语言处理工程师岗位招聘考试试卷及答案
一、填空题(共10题,每题1分,共10分)
1.Word2Vec的两种核心模型是CBOW和______。
答案:Skip-gram
2.jieba分词的______模式会切分所有可能的词语(无冗余)。
答案:全模式
3.Transformer架构的核心是______机制,用于建模长距离依赖。
答案:自注意力
4.BERT预训练任务包括MaskedLanguageModel和______。
答案:NextSentencePrediction(NSP)
5.机器翻译评估指标BLEU的全称是______。
答案:BilingualEvaluationUnderstudy
6.中文词性标注常用标注集是______。
答案:北大词性标注集
7.依存句法分析中,除根节点外每个词仅有一个______。
答案:父节点
8.ASR的全称是______。
答案:AutomaticSpeechRecognition
9.GPT系列采用______(自回归/自编码)预训练范式。
答案:自回归
10.文本分类特征表示方法除词袋模型外,还有______。
答案:TF-IDF
二、单项选择题(共10题,每题2分,共20分)
1.以下非Transformer架构的模型是?
A.BERTB.GPTC.LSTMD.T5
答案:C
2.jieba搜索引擎模式的主要作用是?
A.精确切分B.召回候选词C.实体识别D.长文本处理
答案:B
3.BLEU指标中n-gram权重变化趋势是?
A.均匀B.1-gram最高C.随n递增D.随n递减
答案:D
4.以下属于自编码模型的是?
A.GPT-3B.BERTC.GPT-2D.T5
答案:B
5.词性标注中“NN”表示?
A.名词B.动词C.形容词D.副词
答案:A
6.不属于文本相似度计算的方法是?
A.余弦相似度B.Jaccard相似度C.欧氏距离D.交叉熵
答案:D
7.Transformer多头注意力的核心作用是?
A.并行计算B.多维度依赖捕捉C.减少参数量D.加速训练
答案:B
8.用于文本聚类的常用工具是?
A.spaCyB.scikit-learnKMeansC.jiebaD.BERTopic
答案:B
9.预训练模型微调冻结底层参数的原因是?
A.泛化能力强B.不重要C.减少计算D.防过拟合
答案:A
10.端到端机器翻译的特点是?
A.直接输入输出B.需人工特征C.仅编码器D.仅解码器
答案:A
三、多项选择题(共10题,每题2分,共20分)
1.属于预训练语言模型的有?
A.BERTB.GPTC.LSTMD.XLNet
答案:ABD
2.中文分词方法包括?
A.词典法B.统计法C.深度学习法D.规则法
答案:ABCD
3.文本生成评估指标有?
A.BLEUB.ROUGEC.PerplexityD.F1
答案:ABC
4.Transformer编码器组成部分?
A.多头注意力B.前馈网络C.残差连接D.层归一化
答案:ABCD
5.属于文本分类的任务是?
A.情感分析B.新闻分类C.实体识别D.问答系统
答案:AB
6.词向量表示方法有?
A.Word2VecB.GloVeC.FastTextD.BERTEmbedding
答案:ABCD
7.依存句法分析的用途?
A.语义角色标注B.机器翻译C.问答系统D.文本摘要
答案:ABCD
8.自回归模型有?
A.GPT-1B.BERTC.T5D.GPT-2
答案:AD
9.文本预处理步骤包括?
A.分词B.去停用词C.词干提取D.词性标注
答案:ABC
10.NLP开发工具包括?
A.TensorFlowB.PyTorchC.spaCyD.NLTK
答案:ABCD
四、判断题(共10题,每题2分,共20分)
1.CBOW用上下文预测中心词。
答案:对
2.BERT预训练时所有词都被Masked。
答案:错
3.Transformer解码器是双向注意力。
答案:错
4.词性标注可直接用于依存句法分析。
答案:对
5.GPT是自编码模型。
答案:错
6.BLEU越高翻译质量一定越好。
答案:错
7.jieba精确模式切分最合理。
答案:对
8.ASR和TTS属于NLP子领域。
答案:对
9.XLNet解决BERT的Mask问题。
答案:对
10.Perplexity越低生成质量越好。
答案:对
五、简答题(共4题,每题5分,共20分)
1.简述CBOW与Skip-gram的核心区别。
答案:CBOW用上下文(多词)预测中心词,将上下文向量平均后输入网络,输出中心词概率;Skip-gram用中心词预测上下文(多词),中心词向量输入,输出多个上下文词概率。CBOW训练快、适合高频词;
原创力文档


文档评论(0)