2025年人工智能与伦理专业考试试卷及答案.docxVIP

  • 0
  • 0
  • 约4.83千字
  • 约 16页
  • 2026-01-20 发布于四川
  • 举报

2025年人工智能与伦理专业考试试卷及答案.docx

2025年人工智能与伦理专业考试试卷及答案

一、单项选择题(每题2分,共20分。每题只有一个正确答案,请将正确选项填入括号内)

1.2024年欧盟《人工智能法案》将“实时远程生物识别系统”在公共场所的使用原则上归类为()。

A.最小风险

B.有限风险

C.高风险

D.不可接受风险

答案:D

解析:法案第5条明确禁止在公共场所使用实时远程生物识别系统,除非出现极少数例外,故属“不可接受风险”。

2.在机器学习模型训练阶段,若因训练数据分布偏移导致对某一族群的预测准确率显著下降,这种现象在伦理审计报告中通常被称为()。

A.算法黑箱

B.数据漂移

C.代表性伤害

D.模型投毒

答案:C

解析:代表性伤害(representationalharm)指系统输出强化了对某群体的负面刻板印象或排斥,其根源常是数据分布偏移。

3.根据2023年更新的IEEE7000?2021标准,针对“伦理驱动设计”的符合性评估,优先要求企业建立()。

A.数据出境安全评估

B.算法备案制度

C.伦理影响评估(EIA)

D.模型可解释性白皮书

答案:C

解析:IEEE7000?核心即要求在产品全生命周期嵌入EIA,而非单纯备案或解释。

4.当自动驾驶汽车面临“电车难题”式抉择时,德国联邦交通部2023年颁布的《自动化驾驶伦理准则》要求算法()。

A.优先保护车内乘客

B.不得基于年龄、性别进行权衡

C.最小化财产损失

D.依据保险额度决定优先级

答案:B

解析:准则第4条明确禁止以人身特征作为权衡标准,体现绝对平等原则。

5.在联邦学习框架下,参与方利用差分隐私技术上传梯度信息,其隐私预算ε的推荐上限为()。

A.0.1

B.1

C.5

D.10

答案:B

解析:苹果与谷歌在公开报告中均将ε=1作为单次迭代可接受的隐私损失阈值,超过则重识别风险陡增。

6.2024年1月,中国“生成式AI服务管理暂行办法”要求提供具有舆论属性的生成式服务时应完成的安全评估称为()。

A.算法安全评估

B.网络安全等保测评

C.科技伦理审查

D.数据安全风险评估

答案:A

解析:办法第7条明确“具有舆论属性”的生成式服务须通过中央网信办组织的算法安全评估。

7.在AI医疗影像诊断场景下,若模型AUC达0.95,但对黑人患者召回率仅0.42,该情形最符合()。

A.技术可解释性不足

B.算法歧视

C.模型过拟合

D.数据泄露

答案:B

解析:性能在不同族群间显著失衡,构成直接歧视。

8.关于“可解释人工智能”(XAI),下列技术中属于“内在可解释”方法的是()。

A.LIME

B.SHAP

C.决策树

D.GradCAM

答案:C

解析:决策树自身结构即规则集,无需后验近似,故为内在可解释。

9.2023年10月,联合国教科文组织(UNESCO)发布的《人工智能伦理建议书》强调的核心监管模式是()。

A.行业自律

B.硬性禁令+风险评估

C.事后追责

D.市场自由竞争

答案:B

解析:建议书提出“禁令+风险分级”双层框架,影响欧盟法案思路。

10.若某城市使用AI系统评估教师绩效并决定续约,该系统未向教师公开评分逻辑,在美国可能违反()。

A.COPPA

B.FERPA

C.EEOC

D.ADA

答案:B

解析:FERPA赋予学生与教师查阅教育记录的权利,含算法评分。

二、多项选择题(每题3分,共15分。每题有两个或以上正确答案,多选、少选、错选均不得分)

11.以下哪些行为可能触发欧盟《人工智能法案》的高风险系统合规义务()。

A.使用AI进行招聘初筛

B.利用AI评估银行贷款违约概率

C.在手游中通过AI推荐皮肤

D.采用AI辅助判决量刑

答案:A、B、D

解析:招聘、信贷、司法均列入附件三高风险清单,游戏皮肤推荐不在其列。

12.关于“合成数据”在隐私保护中的作用,下列说法正确的是()。

A.可消除原始数据中的个人可识别信息

B.一定保证无法推断原始个体

C.可缓解数据稀缺问题

D.需进行隐私审计以防模型记忆

答案:A、C、D

解析:合成数据仍可能通过成员推理攻击泄露信息,故“一定保证”错误。

13.在AI伦理治理中,实施“算法审计”需要重点关注()。

A.训练数据来源合法性

B.模型更新频率

C.商业竞争对手数量

D.输出对弱势群体的影响

答案:A、B、D

文档评论(0)

1亿VIP精品文档

相关文档