- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
自然语言处理算法工程师岗位招聘考试试卷及答案
一、填空题(10题,每题1分)
1.NLP最基础的预处理任务是______。
2.常见词嵌入模型含Word2Vec、GloVe和______。
3.Transformer核心组件是______注意力。
4.机器翻译常用评估指标是______。
5.BERT的掩码方式是______。
6.LSTM的三个门控是输入门、遗忘门和______。
7.PLM的核心是______学习。
8.文本生成解码策略有束搜索和______。
9.NER目标是识别文本中的______实体。
10.Transformer位置编码作用是______。
答案:
1.分词2.FastText3.自4.BLEU5.掩码语言模型(MLM)6.输出门7.通用语义8.贪心解码9.命名(如人名/地名)10.添加序列位置信息
二、单项选择题(10题,每题2分)
1.不属于RNN变体的是?A.LSTMB.GRUC.TransformerD.Bi-RNN
2.BERT输入不包含?A.TokenEmbeddingB.SegmentEmbeddingC.PositionEmbeddingD.ContextEmbedding
3.词向量常用维度上限是?A.100B.300C.1000D.2000
4.生成式预训练模型是?A.BERTB.RoBERTaC.GPTD.ALBERT
5.注意力QKV维度关系是?A.d_k=d_vB.d_k≠d_vC.d_kd_vD.d_kd_v
6.非统计分词方法是?A.最大匹配B.词频分词C.神经网络分词D.正向最大匹配
7.文本生成召回指标是?A.BLEUB.ROUGEC.PerplexityD.Accuracy
8.LSTM遗忘门作用是?A.保留当前状态B.输入新信息C.输出状态D.以上都不是
9.Transformer多头注意力头数常用?A.1B.8/16C.32D.64
10.NER常用深度学习模型是?A.CRFB.Bi-LSTM+CRFC.SVMD.NaiveBayes
答案:
1.C2.D3.B4.C5.A6.C7.B8.A9.B10.B
三、多项选择题(10题,每题2分,多选/少选/错选不得分)
1.NLP核心任务含?A.文本分类B.机器翻译C.图像识别D.语音合成
2.BERT特点是?A.双向TransformerB.MLMC.句子对预训练D.单向生成
3.词嵌入作用含?A.语义表示B.降维C.上下文捕捉D.加速计算
4.文本生成评估指标含?A.BLEUB.ROUGEC.PerplexityD.F1-score
5.Transformer组件含?A.多头注意力B.前馈网络C.循环单元D.位置编码
6.LSTM优势是?A.解决梯度消失B.长距离依赖C.并行计算D.参数量少
7.PLM微调方式含?A.分类头微调B.全参数微调C.适配器微调D.零样本学习
8.NER类型含?A.人名识别B.地名识别C.机构名识别D.关系抽取
9.文本分类模型含?A.CNNB.RNNC.BERTD.SVM
10.注意力作用含?A.权重分配B.长距离依赖捕捉C.并行计算D.减少计算量
答案:
1.AB2.ABC3.AC4.ABC5.ABD6.AB7.ABCD8.ABC9.ABCD10.AB
四、判断题(10题,每题2分,√/×)
1.Word2Vec分CBOW和Skip-gram。
2.BERT用单向Transformer。
3.LSTM解决RNN梯度消失。
4.BLEU越高翻译质量越好。
5.分词是NLP第一步预处理。
6.FastText结合词级和字符级嵌入。
7.Transformer无循环结构可并行。
8.PLM只能用于分类。
9.ROUGE是生成文本召回指标。
10.注意力QKV必须来自不同输入。
答案:
1.√2.×3.√4.√5.√6.√7.√8.×9.√10.×
五、简答题(4题,每题5分)
1.简述Transformer多头注意力作用。
答案:多头注意力将QKV拆分为多个子空间,每个头学习不同维度的语义关系(如语法/语义依赖);多头发散信息融合后,增强长序列理解能力,提升任务性能。
2.对比Word2Vec和GloVe异同。
答案:同:均为预训练词向量,捕捉语义相似性;异:Word2Vec基于局部上下文(窗口内)学习,GloVe基于全局词共现矩阵学习,可利用全局统计信息。
3.文本分类一般流程。
答案:1.预处理(分词、去停用词、词嵌入);2.特征提取(词袋/TF-IDF/预训练向量);3.模型训练(CNN/RNN/BERT);4.评估(Accuracy/F1);5.部署。
4.什么是PLM?核心思想?
答案:PLM是大规模无标注文本预训练的通用语言模型;核心是“预训练+微调”:先学通用语义,再针对
您可能关注的文档
最近下载
- Asprova高精度排程软件Ver.5.0用户手册.pdf
- 义务教育劳动课程标准(2022年版).pdf VIP
- 群文阅读:《硝烟中的爱国者》PPT课件38页.pptx
- 江苏省南京市联合体2024-2025学年九年级(上)期末物理试卷(含答案).pdf VIP
- 《六度人脉》导读.ppt VIP
- 2024年执业药师(药学四科合一)考试真题.pdf VIP
- 2025初中英语语法思维导图+练习(详细).docx
- 新疆克拉玛依市独山子区综合基础知识历年真题汇总 (含答案解析).docx VIP
- 【德科地产频道·万科杭州】启动:超级底盘(上).pdf VIP
- 2024年江苏省普通高中学业水平合格性考试调研学生物试题(解析版).docx VIP
原创力文档


文档评论(0)