2026年自然语言处理工程师考试题库(附答案和详细解析)(0428).docxVIP

  • 0
  • 0
  • 约1.83千字
  • 约 3页
  • 2026-05-11 发布于上海
  • 举报

2026年自然语言处理工程师考试题库(附答案和详细解析)(0428).docx

2026年自然语言处理工程师考试题库(附答案和详细解析)(0428)

自然语言处理工程师考试试卷

一、单项选择题(共10题,每题1分,共10分)

Word2Vec模型中,Skip-gram架构的主要目标是:

A.通过上下文词预测中心词

B.通过中心词预测上下文词

C.计算词对的互信息

D.优化词向量正交性

答案:B

解析:Skip-gram通过中心词预测周围上下文词,而CBOW(A选项)相反。C选项是PMI模型核心,D选项非目标函数要求。

在Transformer模型中,残差连接的核心作用是:

A.降低计算复杂度

B.防止梯度消失

C.增加非线性表达能力

D.提升并行计算效率

答案:B

解析:残差连接允许梯度直接回传,缓解深层网络梯度消失问题(B正确)。A/D是自注意力机制优势,C是激活函数作用。

(题目3-10略)

二、多项选择题(共10题,每题2分,共20分)

关于Attention机制的描述,正确的有:

A.缩放点积注意力需除以√d_k避免梯度饱和

B.Self-Attention中Q、K、V均来自同一输入

C.多头注意力扩大了模型的表示空间

D.Attention权重计算必须用Softmax归一化

答案:ABC

解析:A是Transformer原始设计(论文公式);B定义正确;C多头设计允许关注不同子空间;D错误(可用其他归一化如稀疏Atten

文档评论(0)

1亿VIP精品文档

相关文档