- 1
- 0
- 约8.08千字
- 约 10页
- 2026-04-10 发布于上海
- 举报
自然语言处理工程师考试试卷
一、单项选择题(共10题,每题1分,共10分)
Word2Vec的Skip-gram模型训练目标是?
A.预测中心词周围的上下文词
B.预测上下文词对应的中心词
C.最大化词向量的余弦相似度
D.最小化词频的交叉熵损失
答案:A
解析:Skip-gram模型的核心是“用中心词预测周围的上下文词”(如输入“苹果”,预测“吃”“水果”等上下文词),而CBOW模型是“用上下文词预测中心词”(选项B错误)。选项C是词向量评估指标,非训练目标;选项D描述的是词频统计任务,与Word2Vec无关。
BERT预训练任务不包括?
A.掩码语言模型(MLM)
B.下一句预测(NSP)
C.自回归语言模型(ARLM)
D.词级掩码预测
答案:C
解析:BERT的预训练任务是MLM(随机掩码部分输入词,预测被掩码的词)和NSP(判断两句话是否连续)。自回归语言模型(如GPT)是“用前n个词预测第n+1个词”,属于单向建模,而BERT是双向自编码模型(选项C错误)。选项D是MLM的具体实现方式(掩码词级单元),属于BERT任务。
以下哪种技术主要用于解决RNN的长距离依赖问题?
A.注意力机制
B.词袋模型(Bag-of-Words)
C.卷积神经网络(CNN)
D.循环dropout
答案:A
解析:RNN因梯度消失/爆炸问题难以捕捉长距离依赖,注意
原创力文档

文档评论(0)