- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
自然语言处理工程师考试试卷
一、单项选择题(共10题,每题1分,共10分)
以下哪项是BERT模型输入表示的标准结构?
A.词嵌入+位置嵌入
B.[CLS]标记+词嵌入+分段嵌入
C.[SEP]标记+词嵌入+位置嵌入
D.[CLS]标记+词嵌入+分段嵌入+位置嵌入
答案:D
解析:BERT的输入由三部分嵌入相加构成:词元嵌入(TokenEmbedding)、分段嵌入(SegmentEmbedding,区分句子对)和位置嵌入(PositionEmbedding,编码词序),且句首必须添加[CLS]标记用于分类任务。选项A缺少分段和位置信息;B缺少位置嵌入;C错误使用[SEP]标记且缺少分段嵌入。
以下哪种任务不属于自然语言生成(NLG)?
A.机器翻译
B.文本摘要
C.情感分析
D.对话生成
答案:C
解析:自然语言生成是从非文本数据生成自然语言文本的任务,包括机器翻译(生成目标语言文本)、文本摘要(生成摘要文本)、对话生成(生成回复文本)。情感分析属于自然语言理解(NLU),是从文本中提取信息的任务。
以下哪项是LSTM解决RNN长依赖问题的核心机制?
A.遗忘门
B.输入门
C.输出门
D.以上都是
答案:D
解析:LSTM通过三个门控机制(遗忘门控制旧信息保留、输入门控制新信息输入、输出门控制当前状态输出)共同作用,缓解了传统RNN的梯度消失/爆炸问题,从而处理长序列依赖。三个门缺一不可,因此正确选项是D。
在文本分类任务中,若类别分布极不均衡(如正类占99%),最不适合的评估指标是?
A.准确率(Accuracy)
B.F1值
C.召回率(Recall)
D.精确率(Precision)
答案:A
解析:准确率在类别不均衡时会产生误导(如全预测为多数类时准确率可达99%),而F1、召回率、精确率能更客观反映少数类的分类效果。因此最不适合的是准确率。
以下哪种词向量模型基于“上下文-目标词”预测?
A.Word2Vec的Skip-gram
B.GloVe
C.ELMo
D.BERT
答案:A
解析:Skip-gram模型通过目标词预测上下文词(如用”cat”预测周围的”the”“sits”等);GloVe基于共现矩阵的全局统计;ELMo和BERT是上下文相关的词向量,基于深度模型的上下文预测。
以下哪项是Transformer模型中“多头注意力”的主要作用?
A.减少计算量
B.捕获不同子空间的注意力模式
C.替代位置编码
D.增强模型的记忆能力
答案:B
解析:多头注意力将注意力机制分为多个头,每个头学习不同子空间的注意力模式(如句法、语义、位置等),最终拼接后增强模型对不同特征的捕捉能力。减少计算量是缩放点积注意力的作用;位置编码是独立模块;记忆能力由模型结构整体决定。
以下哪种任务属于序列标注(SequenceLabeling)?
A.文本分类
B.命名实体识别(NER)
C.问答系统
D.文本相似度计算
答案:B
解析:序列标注任务要求为输入序列中的每个元素分配标签(如为句子中每个词标注实体类型),命名实体识别符合这一定义。文本分类是为整体序列分配标签,问答和相似度计算属于语义匹配任务。
在预训练模型微调(Fine-tuning)时,通常建议的做法是?
A.冻结所有预训练层,仅训练新添加的分类层
B.解冻所有层并使用极小的学习率
C.仅解冻最后几层,前面层保持冻结
D.随机初始化所有层并重新训练
答案:B
解析:微调时通常解冻所有预训练层(利用预训练的通用特征),但使用比预训练更小的学习率(避免破坏已学习的知识)。冻结所有层可能无法适应下游任务(选项A错误);仅解冻最后几层适用于资源受限场景,但非通常建议(选项C错误);随机初始化是从头训练,非微调(选项D错误)。
以下哪项不是文本预处理的必要步骤?
A.分词(Tokenization)
B.停用词过滤
C.词干提取(Stemming)
D.文本清洗(去噪声)
答案:C
解析:文本预处理的必要步骤包括清洗(去除乱码、特殊符号)、分词(将文本拆分为基本单元);停用词过滤和词干提取是可选步骤(如情感分析中停用词可能包含情感倾向词,无需过滤;中文无词干提取需求)。
以下哪种模型属于生成式预训练模型(GenerativePretraining)?
A.BERT
B.GPT
C.RoBERTa
D.ALBERT
答案:B
解析:GPT(GenerativePre-trainedTransformer)是典型的生成式预训练模型,基于自回归(Autoregressive)目标(用前向词预测下一个词);BERT、RoBERTa、ALBERT是判别式预训练模型,基于自编码(Autoenco
您可能关注的文档
- 2025年城市更新咨询师考试题库(附答案和详细解析)(1021).docx
- 2025年房地产估价师考试题库(附答案和详细解析)(1014).docx
- 2025年公共营养师考试题库(附答案和详细解析)(1020).docx
- 2025年美国注册管理会计师(CMA)考试题库(附答案和详细解析)(1021).docx
- 2025年能源管理师考试题库(附答案和详细解析)(1022).docx
- 2025年社会心理服务人员考试题库(附答案和详细解析)(1022).docx
- 2025年税务师职业资格考试考试题库(附答案和详细解析)(1016).docx
- 2025年碳排放管理师考试题库(附答案和详细解析)(1016).docx
- 2025年游戏引擎开发师考试题库(附答案和详细解析)(1017).docx
- 2025年注册电气工程师考试题库(附答案和详细解析)(1013).docx
原创力文档


文档评论(0)