2025人工智能安全问题试题(含答案解析).docxVIP

  • 0
  • 0
  • 约7.23千字
  • 约 19页
  • 2026-02-09 发布于四川
  • 举报

2025人工智能安全问题试题(含答案解析).docx

2025人工智能安全问题试题(含答案解析)

一、单项选择题(每题2分,共20分。每题只有一个正确答案,请将正确选项的字母填在括号内)

1.在联邦学习框架下,以下哪种攻击方式最可能导致全局模型泄露本地训练数据的敏感属性?

A.模型逆向攻击

B.投毒攻击

C.后门攻击

D.梯度压缩攻击

【答案】A

【解析】模型逆向攻击(modelinversionattack)通过观察模型输出或参数,可重构出训练样本的敏感属性,联邦学习中梯度共享会放大该风险。

2.根据欧盟《人工智能法案》最终妥协文本,下列哪类系统被直接划入“高风险”而无需额外判定?

A.生成式聊天机器人

B.用于招聘的简历筛选系统

C.深度伪造检测系统

D.电子游戏AI对手

【答案】B

【解析】招聘场景下的简历筛选系统属于法案附录III明确列举的高风险领域。

3.在对抗样本防御中,使用“随机化变换+集成投票”策略主要缓解的威胁模型是:

A.白盒?∞范数受限攻击

B.黑盒查询受限攻击

C.物理世界贴纸攻击

D.模型窃取攻击

【答案】A

【解析】随机化变换破坏攻击者梯度估计,集成投票降低单模型过拟合风险,两者组合对白盒?∞攻击效果显著。

4.关于差分隐私的矩会计(momentsaccountant)方法,下列说法正确的是:

A.适用于非凸优化且隐私预算可无限累加

B.其累积隐私损失的上界随训练轮次呈线性增长

C.相比强组合定理,在相同ε下可支持更多训练步

D.需要已知每次迭代的梯度?2范数精确值

【答案】C

【解析】矩会计给出更紧的累积损失上界,允许在同等隐私预算下运行更多步。

5.在AI供应链安全评估中,SBOM(软件物料清单)最关键的作用是:

A.量化模型碳排放

B.追踪第三方库漏洞

C.证明模型可解释性

D.降低推理延迟

【答案】B

【解析】SBOM列出所有依赖组件及版本,可快速匹配CVE漏洞库。

6.针对大语言模型“幻觉”现象,以下缓解技术中属于“事后修正”策略的是:

A.检索增强生成(RAG)

B.强化学习从人类反馈(RLHF)

C.置信度阈值过滤

D.思维链提示(CoT)

【答案】C

【解析】置信度阈值过滤在模型输出后根据概率拒绝低置信句子,属于事后修正。

7.在可信执行环境(TEE)中运行推理时,最大可抵御的威胁是:

A.侧信道攻击

B.恶意操作系统

C.供应链固件后门

D.物理探针攻击

【答案】B

【解析】TEE通过硬件隔离可屏蔽恶意OS,但侧信道、物理探针仍可能突破。

8.关于AI系统“非歧视”指标,下列指标中直接量化群体公平性的是:

A.平均绝对误差MAE

B.机会均等差(EqualOpportunityDifference)

C.ROCAUC

D.困惑度Perplexity

【答案】B

【解析】机会均等差=TPR_A?TPR_B,反映不同群体真正率差异。

9.在模型水印方案中,以下哪项要求最符合“鲁棒性”指标?

A.验证算法复杂度低于O(n2)

B.经微调后水印检测AUC0.9

C.水印长度小于1KB

D.嵌入过程零样本

【答案】B

【解析】鲁棒性指模型经微调、剪枝后仍能高概率检测出水印。

10.2024年NIST发布的AI风险管理框架(AIRMF1.0)核心流程顺序为:

A.MAP→MEASURE→GOVERN→MANAGE

B.GOVERN→MAP→MEASURE→MANAGE

C.MAP→MANAGE→MEASURE→GOVERN

D.GOVERN→MANAGE→MAP→MEASURE

【答案】B

【解析】官方顺序:GOVERN(治理)→MAP(映射)→MEASURE(测量)→MANAGE(管理)。

二、多项选择题(每题3分,共15分。每题有两个或以上正确答案,多选、少选、错选均不得分)

11.以下哪些方法可有效降低大模型训练中的数据泄露风险?

A.梯度裁剪+差分隐私

B.使用合成数据替代真实数据

C.权重级同态加密

D.训练后模型参数完全公开

【答案】A、B

【解析】梯度裁剪+DP提供可量化隐私保证;高质量合成数据减少真实数据暴露;权重同态加密目前计算不可行;完全公开参数加剧泄露。

12.关于AI系统“可解释性”评估,下列属于“功能级”解释方法的有:

A.SHAP值

B.GradCAM热图

C.决策树替代模型

D.自然语言反事实

【答案】A、

文档评论(0)

1亿VIP精品文档

相关文档