2026年自然语言处理工程师考试题库(附答案和详细解析)(0213).docxVIP

  • 1
  • 0
  • 约8.08千字
  • 约 10页
  • 2026-04-10 发布于上海
  • 举报

2026年自然语言处理工程师考试题库(附答案和详细解析)(0213).docx

自然语言处理工程师考试试卷

一、单项选择题(共10题,每题1分,共10分)

Word2Vec的Skip-gram模型训练目标是?

A.预测中心词周围的上下文词

B.预测上下文词对应的中心词

C.最大化词向量的余弦相似度

D.最小化词频的交叉熵损失

答案:A

解析:Skip-gram模型的核心是“用中心词预测周围的上下文词”(如输入“苹果”,预测“吃”“水果”等上下文词),而CBOW模型是“用上下文词预测中心词”(选项B错误)。选项C是词向量评估指标,非训练目标;选项D描述的是词频统计任务,与Word2Vec无关。

BERT预训练任务不包括?

A.掩码语言模型(MLM)

B.下一句预测(NSP)

C.自回归语言模型(ARLM)

D.词级掩码预测

答案:C

解析:BERT的预训练任务是MLM(随机掩码部分输入词,预测被掩码的词)和NSP(判断两句话是否连续)。自回归语言模型(如GPT)是“用前n个词预测第n+1个词”,属于单向建模,而BERT是双向自编码模型(选项C错误)。选项D是MLM的具体实现方式(掩码词级单元),属于BERT任务。

以下哪种技术主要用于解决RNN的长距离依赖问题?

A.注意力机制

B.词袋模型(Bag-of-Words)

C.卷积神经网络(CNN)

D.循环dropout

答案:A

解析:RNN因梯度消失/爆炸问题难以捕捉长距离依赖,注意

文档评论(0)

1亿VIP精品文档

相关文档