- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
自然语言处理工程师考试试卷
一、单项选择题(共10题,每题1分,共10分)
Word2Vec的Skip-gram模型训练目标是()
A.给定中心词预测上下文词
B.给定上下文词预测中心词
C.最大化所有词对的共现概率
D.最小化词向量的维度
答案:A
解析:Skip-gram模型的核心是通过中心词预测其上下文词(如窗口内的邻近词),而CBOW模型是通过上下文词预测中心词(B错误)。模型目标是最大化预测概率(C表述不准确),词向量维度是预设参数(D无关)。
BERT预训练任务不包括()
A.掩码语言模型(MLM)
B.下一句预测(NSP)
C.自回归语言模型(ARLM)
D.完形填空任务
答案:C
解析:BERT采用双向Transformer,预训练任务为MLM(随机掩码部分词并预测)和NSP(判断两句话是否连续)(A、B、D正确)。自回归语言模型(如GPT)是单向预测,与BERT的双向架构不兼容(C错误)。
循环神经网络(RNN)处理长文本时的主要缺陷是()
A.参数数量过多
B.梯度消失/爆炸
C.无法并行计算
D.难以捕捉局部特征
答案:B
解析:RNN的链式结构导致反向传播时梯度经过多次矩阵乘法,易出现梯度消失(长距离依赖问题)或爆炸(B正确)。参数数量(A)和并行性(C)是RNN的特点但非主要缺陷;RNN可捕捉序列特征(D错误)。
以下属于生成式任务的是()
A.文本分类
B.情感分析
C.机器翻译
D.命名实体识别
答案:C
解析:生成式任务需输出新文本(如翻译、摘要),判别式任务需分类或标注(A、B、D均为判别式)。机器翻译需将源语言转换为目标语言(C正确)。
中文分词中的“交集型歧义”是指()
A.同一个字在不同语境中词性不同
B.多个切分方式共享部分字符(如“乒乓球拍卖完了”可切为“乒乓球/拍卖”或“乒乓/球拍”)
C.生僻词未被词库收录
D.标点符号干扰分词结果
答案:B
解析:交集型歧义指多个切分路径共享中间字符(B正确)。词性不同(A)属于词性标注问题;未登录词(C)是未收录词问题;标点干扰(D)是噪声问题。
以下词向量模型中,基于全局统计的是()
A.Word2Vec
B.GloVe
C.FastText
D.ELMo
答案:B
解析:GloVe(全局向量)通过词共现矩阵的全局统计信息训练(B正确)。Word2Vec(A)和FastText(C)基于局部窗口;ELMo(D)是上下文相关的动态词向量。
注意力机制(Attention)的核心公式是()
A.((Q,K,V)=()V)
B.(h_t=(W_hh_{t-1}+W_xx_t))
C.(=(W_hh_n+b))
D.((w)=W(w))
答案:A
解析:A是Transformer中缩放点积注意力的标准公式(正确)。B是RNN的隐状态计算(循环层);C是分类任务的输出层;D是One-hot到词向量的线性变换。
以下不属于预训练模型微调(Fine-tuning)策略的是()
A.冻结部分参数仅训练分类层
B.全参数微调
C.提示学习(PromptLearning)
D.随机初始化所有参数训练
答案:D
解析:微调需基于预训练参数继续训练(A、B、C均为微调或改进策略),随机初始化(D)是从头训练(TrainingfromScratch),不属于微调。
情感分析中的“方面级情感分析(Aspect-BasedSentimentAnalysis)”核心任务是()
A.判断整体文本的情感倾向(正/负/中性)
B.识别文本中讨论的具体方面(如“手机”的“屏幕”“电池”)并判断其情感
C.分析情感词的强度(如“非常好”比“好”更积极)
D.检测文本中的情感隐喻(如“天气晴朗”隐喻心情好)
答案:B
解析:方面级情感分析需同时识别方面(Aspect)和对应的情感(B正确)。整体情感(A)是篇章级;强度分析(C)是情感程度;隐喻检测(D)是细粒度任务。
以下属于神经机器翻译(NMT)模型的是()
A.基于规则的翻译系统(RBMT)
B.统计机器翻译(SMT)
C.Transformer模型
D.基于实例的翻译系统(EBMT)
答案:C
解析:NMT基于神经网络(如Transformer)(C正确)。RBMT(A)、SMT(B)、EBMT(D)均为传统方法。
二、多项选择题(共10题,每题2分,共20分)(每题至少2个正确选项)
以下属于BERT改进模型的有()
A.RoBERTa
B.GPT-2
C.ALBERT
D.T5
答案:ACD
解析:RoBERTa(优化训练策略)、ALBERT(参数压缩)、T
您可能关注的文档
- 2025年BIM工程师资格认证考试题库(附答案和详细解析)(1022).docx
- 2025年工业互联网工程师考试题库(附答案和详细解析)(1021).docx
- 2025年谷歌云认证考试题库(附答案和详细解析)(1017).docx
- 2025年国际注册信托与财富管理师(CTEP)考试题库(附答案和详细解析)(1017).docx
- 2025年劳动关系协调师考试题库(附答案和详细解析)(1013).docx
- 2025年信息治理专家考试题库(附答案和详细解析)(1014).docx
- 2025年信用管理师考试题库(附答案和详细解析)(1011).docx
- 2025年注册地籍测绘师考试题库(附答案和详细解析)(1017).docx
- 2025年注册交通工程师考试题库(附答案和详细解析)(1015).docx
- 2025年注册信息系统审计师(CISA)考试题库(附答案和详细解析)(1014).docx
原创力文档


文档评论(0)