- 2
- 0
- 约5.25千字
- 约 16页
- 2026-03-17 发布于四川
- 举报
2026年人工智能安全期末试卷真题解析
一、单项选择题(每题2分,共20分)
1.2026年3月,欧盟《人工智能责任指令》正式生效,其核心条款要求高风险AI系统在上市前必须完成
A.算法备案
B.第三方红队测试
C.可解释性审计
D.数据跨境评估
答案:C
解析:指令第12条将“可解释性审计”列为高风险系统强制前置义务,红队测试仅对超大型生成模型适用。
2.在联邦学习场景下,以下哪种攻击可在不破坏模型参数的情况下直接推断出参与方本地标签分布?
A.模型逆向攻击
B.属性推理攻击
C.梯度泄露攻击
D.后门投毒攻击
答案:B
解析:属性推理攻击(PropertyInferenceAttack)利用更新序列的统计矩信息恢复数据集的敏感属性分布,无需还原原始样本。
3.对于基于Transformer的代码生成模型,缓解“包幻觉”(PackageHallucination)最有效的后处理策略是
A.Top-p截断采样
B.语法树引导解码
C.动态知识库检索
D.强化学习人类反馈
答案:C
解析:幻觉根源于训练分布与真实包索引失配,动态检索可实时校正候选包名,降低幻觉率73%(2025年OpenCodeEval报告)。
4.根据NISTAIRMF1.2版,以下哪项被新增为“Map”阶段的唯一关键子类?
A.上下文边界刻画
B.利益相关者影响评估
C.
原创力文档

文档评论(0)