2025年网络编辑师考试网络编辑人工智能与自然语言处理试卷(附答案).docxVIP

  • 0
  • 0
  • 约7.02千字
  • 约 15页
  • 2026-02-15 发布于四川
  • 举报

2025年网络编辑师考试网络编辑人工智能与自然语言处理试卷(附答案).docx

2025年网络编辑师考试网络编辑人工智能与自然语言处理试卷(附答案)

1.单项选择题(每题1分,共20分)

1.1在Transformer架构中,用于捕捉序列中任意两个位置之间依赖关系的核心机制是

A.卷积核B.循环层C.自注意力D.池化层

答案:C

1.2下列哪一项不是BERT预训练阶段的任务

A.掩码语言模型B.下一句预测C.翻译语言模型D.无

答案:C

1.3在中文文本中,基于字符级分词相比基于词语级分词的主要优势是

A.降低OOV率B.提高语义精度C.减少计算量D.增强句法分析

答案:A

1.4使用ROUGE指标评估摘要质量时,ROUGE1主要衡量

A.一元共现召回率B.二元共现精确率C.最长公共子序列D.语义相似度

答案:A

1.5当finetuneGPT3用于风格控制生成时,最经济的策略是

A.全参数更新B.仅更新嵌入层C.Adapter层插入D.重新预训练

答案:C

1.6下列激活函数在梯度传播中最容易出现“神经元死亡”的是

A.ReLUB.GELUC.SwishD.tanh

答案:A

1.7在Seq2Seq+Attention模型中,Coverage机制主要解决

A.梯度消失B.重复生成C.长程依赖D.集外词

答案:B

1.8对大规模语料做动态负采样时,下列采样分布最常用的是

A.均匀分布B.词频平方根分布C.词频0.75次幂分布D.高斯分布

答案:C

1.9在知识蒸馏中,教师模型输出使用Softmax温度τ=4,其目的是

A.加速推理B.增强负标签信息C.降低内存D.提高稀疏性

答案:B

1.10下列关于“提示工程”的描述正确的是

A.仅适用于小模型B.可零样本触发推理C.一定需要反向传播D.不能结合外部知识

答案:B

1.11在中文BERT中,为了适配繁简混杂,词汇表构建通常采用

A.繁简分离B.繁简映射+共享子词C.仅用简体D.仅用繁体

答案:B

1.12使用FAISS进行亿级向量检索时,最节省内存的量化方法是

A.FlatL2B.IVF1024,FlatC.PQ64D.HNSW

答案:C

1.13在文本对抗样本生成中,对同义词替换攻击最有效的防御是

A.随机删除B.对抗训练C.增加DropoutD.降低学习率

答案:B

1.14下列关于“模型压缩”技术描述错误的是

A.剪枝可降低参数量B.量化必然导致0精度损失C.蒸馏可转移暗知识D.参数共享减少存储

答案:B

1.15在T5模型中,所有下游任务统一转化为

A.多选题B.文本到文本C.序列标注D.回归

答案:B

1.16当使用ALBERT替代BERT时,为保持层间参数共享,下列做法必须的是

A.共享FFNB.共享AttentionC.共享全部层参数D.仅共享嵌入

答案:C

1.17在中文社交媒体文本规范化任务中,下列正则表达式最适合匹配“哈哈哈”重复冗余的是

A.(哈)\1{2,}B.(哈)+C.(哈)\1D.(哈){2}

答案:A

1.18对生成式模型进行人工评价时,Kappa系数0.8表示

A.轻微一致B.中等一致C.高度一致D.几乎完全一致

答案:D

1.19在构建领域预训练语料时,采用“继续预训练”而非“从零预训练”的主要原因是

A.降低碳排放B.避免灾难性遗忘C.提高学习率D.增加随机性

答案:B

1.20下列关于“检索增强生成(RAG)”说法正确的是

A.检索器必须可导B.生成器不能微调C.支持动态更新知识D.仅适用于问答

答案:C

2.多项选择题(每题2分,共20分,多选少选均不得分)

2.1下列哪些技术可直接缓解Transformer“二次复杂度”问题

A.LinformerB.PerformerC.SparseTransformerD.GradientCheckpointing

答案:ABC

2.2在构建中文医疗NER数据集时,为降低标注成本可采取

A.远程监督B.主动学习C.众包+专家审核D.交

文档评论(0)

1亿VIP精品文档

相关文档