- 0
- 0
- 约4.83千字
- 约 16页
- 2026-01-20 发布于四川
- 举报
2025年人工智能与伦理专业考试试卷及答案
一、单项选择题(每题2分,共20分。每题只有一个正确答案,请将正确选项填入括号内)
1.2024年欧盟《人工智能法案》将“实时远程生物识别系统”在公共场所的使用原则上归类为()。
A.最小风险
B.有限风险
C.高风险
D.不可接受风险
答案:D
解析:法案第5条明确禁止在公共场所使用实时远程生物识别系统,除非出现极少数例外,故属“不可接受风险”。
2.在机器学习模型训练阶段,若因训练数据分布偏移导致对某一族群的预测准确率显著下降,这种现象在伦理审计报告中通常被称为()。
A.算法黑箱
B.数据漂移
C.代表性伤害
D.模型投毒
答案:C
解析:代表性伤害(representationalharm)指系统输出强化了对某群体的负面刻板印象或排斥,其根源常是数据分布偏移。
3.根据2023年更新的IEEE7000?2021标准,针对“伦理驱动设计”的符合性评估,优先要求企业建立()。
A.数据出境安全评估
B.算法备案制度
C.伦理影响评估(EIA)
D.模型可解释性白皮书
答案:C
解析:IEEE7000?核心即要求在产品全生命周期嵌入EIA,而非单纯备案或解释。
4.当自动驾驶汽车面临“电车难题”式抉择时,德国联邦交通部2023年颁布的《自动化驾驶伦理准则》要求算法()。
A.优先保护车内乘客
B.不得基于年龄、性别进行权衡
C.最小化财产损失
D.依据保险额度决定优先级
答案:B
解析:准则第4条明确禁止以人身特征作为权衡标准,体现绝对平等原则。
5.在联邦学习框架下,参与方利用差分隐私技术上传梯度信息,其隐私预算ε的推荐上限为()。
A.0.1
B.1
C.5
D.10
答案:B
解析:苹果与谷歌在公开报告中均将ε=1作为单次迭代可接受的隐私损失阈值,超过则重识别风险陡增。
6.2024年1月,中国“生成式AI服务管理暂行办法”要求提供具有舆论属性的生成式服务时应完成的安全评估称为()。
A.算法安全评估
B.网络安全等保测评
C.科技伦理审查
D.数据安全风险评估
答案:A
解析:办法第7条明确“具有舆论属性”的生成式服务须通过中央网信办组织的算法安全评估。
7.在AI医疗影像诊断场景下,若模型AUC达0.95,但对黑人患者召回率仅0.42,该情形最符合()。
A.技术可解释性不足
B.算法歧视
C.模型过拟合
D.数据泄露
答案:B
解析:性能在不同族群间显著失衡,构成直接歧视。
8.关于“可解释人工智能”(XAI),下列技术中属于“内在可解释”方法的是()。
A.LIME
B.SHAP
C.决策树
D.GradCAM
答案:C
解析:决策树自身结构即规则集,无需后验近似,故为内在可解释。
9.2023年10月,联合国教科文组织(UNESCO)发布的《人工智能伦理建议书》强调的核心监管模式是()。
A.行业自律
B.硬性禁令+风险评估
C.事后追责
D.市场自由竞争
答案:B
解析:建议书提出“禁令+风险分级”双层框架,影响欧盟法案思路。
10.若某城市使用AI系统评估教师绩效并决定续约,该系统未向教师公开评分逻辑,在美国可能违反()。
A.COPPA
B.FERPA
C.EEOC
D.ADA
答案:B
解析:FERPA赋予学生与教师查阅教育记录的权利,含算法评分。
二、多项选择题(每题3分,共15分。每题有两个或以上正确答案,多选、少选、错选均不得分)
11.以下哪些行为可能触发欧盟《人工智能法案》的高风险系统合规义务()。
A.使用AI进行招聘初筛
B.利用AI评估银行贷款违约概率
C.在手游中通过AI推荐皮肤
D.采用AI辅助判决量刑
答案:A、B、D
解析:招聘、信贷、司法均列入附件三高风险清单,游戏皮肤推荐不在其列。
12.关于“合成数据”在隐私保护中的作用,下列说法正确的是()。
A.可消除原始数据中的个人可识别信息
B.一定保证无法推断原始个体
C.可缓解数据稀缺问题
D.需进行隐私审计以防模型记忆
答案:A、C、D
解析:合成数据仍可能通过成员推理攻击泄露信息,故“一定保证”错误。
13.在AI伦理治理中,实施“算法审计”需要重点关注()。
A.训练数据来源合法性
B.模型更新频率
C.商业竞争对手数量
D.输出对弱势群体的影响
答案:A、B、D
原创力文档

文档评论(0)