2025年国际计算机认证考试《人工智能》真题试卷及答案.docxVIP

  • 0
  • 0
  • 约1.23万字
  • 约 33页
  • 2026-02-11 发布于四川
  • 举报

2025年国际计算机认证考试《人工智能》真题试卷及答案.docx

2025年国际计算机认证考试《人工智能》练习题试卷及答案

一、单项选择题(每题1分,共30分。每题只有一个正确答案,错选、多选、未选均不得分)

1.在深度强化学习中,以下哪种算法首次在Atari2600游戏上实现了“人类水平”控制?

A.A3C

B.DQN

C.PPO

D.TRPO

答案:B

解析:Mnih等人在2015年Nature论文中提出DeepQNetwork(DQN),首次在49款Atari游戏中达到人类水平,奠定了深度强化学习的里程碑。

2.对于Transformer架构,下列哪一项最准确地描述了“位置编码(PositionalEncoding)”的作用?

A.替代注意力机制

B.为无递归模型注入序列顺序信息

C.降低参数量

D.实现层归一化

答案:B

解析:Transformer本身对序列位置无感知,正弦位置编码将token顺序映射为向量,使模型能区分“猫追狗”与“狗追猫”。

3.在联邦学习场景下,客户端上传的“模型更新”若被恶意篡改,以下哪种防御机制理论上可证明收敛并保证拜占庭容错?

A.知识蒸馏

B.安全聚合(SecureAggregation)

C.Krum聚合

D.差分隐私噪声注入

答案:C

解析:Krum选择与其他更新最相似的梯度作为中心更新,Blanchard等人2017年从理论上证明其在(α,β)拜占庭环境下收敛。

4.若将BERTbase的隐藏层维度从768降至256,参数量约减少多少?

A.25%

B.50%

C.75%

D.85%

答案:C

解析:BERTbase参数量≈110M,其中嵌入层≈24M,其余为Transformer块。隐藏层维度与自注意力权重矩阵参数量呈平方关系,7682→2562使权重参数量降至约1/9,综合估算总参数量下降约75%。

5.在StableDiffusion中,将文本提示“acat”改为“acat::1.5”后,模型行为变化对应的技术本质是:

A.提高CLIP文本编码器的学习率

B.在交叉注意力层对提示向量做尺度缩放

C.修改UNet的通道数

D.替换调度器为DDIM

答案:B

解析:双冒号语法表示对对应token的embedding乘以1.5,在交叉注意力softmax前放大其影响,从而增强生成图像中“cat”的显著性。

6.下列关于NeRF(NeuralRadianceFields)的叙述,错误的是:

A.需要已知相机内外参

B.体渲染公式中αi表示第i段区间的透射率

C.位置编码(PositionalEncoding)可提升高频细节

D.训练完成后可渲染任意新视角

答案:B

解析:αi为第i段区间的“不透明度”,而非透射率;透射率Ti=exp(?Σj=1i?1σjδj)。

7.在LLM推理加速技术中,以下哪种方法通过“提前退出”减少计算量?

A.speculativedecoding

B.tokenlevelearlyexiting

C.groupedqueryattention

D.FlashAttention

答案:B

解析:earlyexiting在中间层插入分类器,若置信度足够高则直接返回结果,跳过后续层计算。

8.若使用LoRA(LowRankAdaptation)微调GPT3175B模型,rank=16,则新增参数量约为:

A.17.5M

B.35M

C.70M

D.140M

答案:B

解析:LoRA对Q、V矩阵注入低秩分解,参数量≈2×layers×hidden_size×rank。GPT3175B有96层,12288隐藏层,2×96×12288×16≈36M,最接近35M。

9.在因果推断中,docalculus规则1允许对满足“后门准则”的变量进行:

A.删除

B.干预

C.条件化

D.替换

答案:C

解析:规则1指出若Z满足后门准则,则P(y|do(x))=ΣzP(y|x,z)P(z),即通过条件化Z阻断混杂。

10.对于多模态模型CLIP,以下哪项训练目标函数最准确?

A.InfoNCE

B.crossentropywithsoftlabels

C.KLdivergence

D.MSE

答案:A

解析:CLIP使用对称的InfoNCE损失,最大化配对的图像与文本嵌入余弦相似度,同时最小化非配对相似度。

11.在AutoML领域,DARTS(Differen

文档评论(0)

1亿VIP精品文档

相关文档