2026年自然语言处理工程师考试题库(附答案和详细解析)(0106).docxVIP

  • 0
  • 0
  • 约9千字
  • 约 12页
  • 2026-01-23 发布于上海
  • 举报

2026年自然语言处理工程师考试题库(附答案和详细解析)(0106).docx

自然语言处理工程师考试试卷

一、单项选择题(共10题,每题1分,共10分)

以下哪项是Word2Vec中CBOW模型的训练目标?

A.根据中心词预测上下文词

B.根据上下文词预测中心词

C.根据当前词预测下一个词

D.根据句子预测类别

答案:B

解析:Word2Vec包含CBOW(连续词袋模型)和Skip-gram两种架构。CBOW的核心是利用上下文词向量预测中心词(如用“猫坐在”预测“地毯”),而Skip-gram则相反(用中心词预测上下文)。选项A是Skip-gram的目标,C是语言模型(如GPT)的目标,D是文本分类任务,故正确答案为B。

BERT模型的预训练任务不包括?

A.掩码语言模型(MLM)

B.下一句预测(NSP)

C.序列到序列生成(Seq2Seq)

D.词级上下文预测

答案:C

解析:BERT的预训练任务是MLM(随机掩码部分输入词,预测被掩码的词)和NSP(判断两个句子是否连续)。Seq2Seq是生成模型(如T5)的训练方式,并非BERT原生任务,因此选C。

循环神经网络(RNN)在处理长文本时容易出现的主要问题是?

A.梯度爆炸或消失

B.参数数量过多

C.无法并行计算

D.对词序不敏感

答案:A

解析:RNN的循环结构导致反向传播时梯度经过多次矩阵乘法,长序列会引发梯度消失(长期依赖信息丢失)或梯度爆炸(参数更新不稳定)。参数数量(B)是深层模型的普遍问题,无法并行(C)是RNN的特性但非主要问题,RNN对词序敏感(D错误),故正确答案为A。

中文分词中“隐马尔可夫模型(HMM)”的核心是?

A.统计字与字之间的转移概率

B.基于规则的切分字典

C.利用上下文语义特征

D.预测每个字的词边界标签(B/M/E/S)

答案:D

解析:HMM用于分词时,将问题转化为序列标注任务,通过统计字的状态(如B-词首、M-词中、E-词尾、S-单字词)的转移概率和发射概率,预测每个字的标签以确定词边界。A是n-gram模型的统计方式,B是规则分词,C是深度学习模型(如BiLSTM-CRF)的优势,故正确答案为D。

情感分析属于以下哪类NLP任务?

A.序列标注

B.文本生成

C.文本分类

D.机器翻译

答案:C

解析:情感分析的目标是将文本映射到预定义的情感类别(如积极/消极/中性),本质是文本分类任务。序列标注(A)如命名实体识别,文本生成(B)如机器写作,机器翻译(D)是序列到序列任务,故正确答案为C。

以下哪项是ELMo(EmbeddingsfromLanguageModels)的特点?

A.静态词向量(相同词的向量固定)

B.动态词向量(根据上下文生成不同向量)

C.仅利用单向上下文信息

D.基于自回归模型训练

答案:B

解析:ELMo是深度双向语言模型,通过双向LSTM生成每个词的上下文相关向量(动态词向量),解决了Word2Vec/GloVe的静态问题(A错误)。它利用双向上下文(C错误),基于自编码而非自回归(D错误),故正确答案为B。

Transformer模型中“多头注意力(Multi-HeadAttention)”的主要作用是?

A.减少计算复杂度

B.捕捉不同子空间的上下文依赖

C.替代循环结构实现并行计算

D.增强模型的记忆能力

答案:B

解析:多头注意力通过将查询/键/值矩阵分割为多个头,使模型能同时学习不同子空间的注意力模式(如句法依赖、语义关联),提升特征提取的多样性。减少计算复杂度(A)是点积注意力的优化,并行计算(C)是Transformer整体架构的优势,记忆能力(D)是LSTM的特点,故正确答案为B。

评估文本生成模型(如GPT)的常用指标不包括?

A.BLEU

B.ROUGE

C.困惑度(Perplexity)

D.F1分数

答案:D

解析:文本生成评估常用BLEU(机器翻译)、ROUGE(摘要)、困惑度(语言模型)。F1分数(精确率和召回率的调和平均)主要用于分类或序列标注任务(如命名实体识别),不直接评估生成文本的流畅性和相关性,故正确答案为D。

LSTM(长短期记忆网络)中“遗忘门”的作用是?

A.决定保留多少过去的记忆

B.决定输入多少新信息

C.决定输出多少当前状态

D.防止梯度消失

答案:A

解析:LSTM的三个门控中,遗忘门(sigmoid)通过输入和上一状态计算“遗忘率”,控制细胞状态中旧信息的保留比例;输入门(B)控制新信息的添加,输出门(C)控制当前状态的输出,防止梯度消失(D)是LSTM整体结构的效果,故正确答案为A。

以下哪项是n-gram语言模型的主要缺点?

A.无法捕捉长距离依赖

B.参数数量过大

C.对词序不敏感

D.只能处理英文

答案:A

解析:n-gram基于

文档评论(0)

1亿VIP精品文档

相关文档