2025年人工智能伦理学考试题及答案详解.docxVIP

2025年人工智能伦理学考试题及答案详解.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

2025年人工智能伦理学考试题及答案详解

一、单项选择题(每题2分,共20分)

1.某自动驾驶汽车在紧急情况下必须在撞向一名儿童和撞向一名成年人之间做出选择,若算法最终选择撞向成年人,其伦理依据最可能基于以下哪一原则?

A.最大化整体幸福

B.最小化社会舆论风险

C.优先保护弱势群体

D.随机选择以避免责任

答案:A

详解:功利主义伦理框架强调“最大幸福”原则,算法将预期生命长度、社会贡献、家庭依赖等量化后,可能得出成年人存活带来的总体效用更高。虽然直觉上“保护儿童”更符合情感,但纯功利计算会倾向保留对社会贡献更大的生命。C选项看似合理,却与结果矛盾;B、D均非伦理学主流原则。

2.欧盟《AI法案》将“实时远程生物识别系统”在公共空间原则上禁止,但允许例外。下列哪一情形最不可能获得例外授权?

A.寻找失踪十年的儿童

B.防止恐怖袭击的即时威胁

C.追查已判刑的轻罪盗窃犯

D.确认大型体育赛事入场者身份

答案:C

详解:法案允许“重大且紧迫的公共安全威胁”作为例外,但轻罪盗窃的社会危害与紧迫性均不足。A虽时间久远,却涉及未成年人生命安全;B为典型高危险;D属“事后验证”而非“实时识别”,不在禁止范围。C的犯罪严重程度与实时性均不符合比例原则。

3.在联邦学习场景下,参与方仅共享梯度而不共享原始数据,仍可能泄露用户隐私,其根本原因是:

A.梯度传输未加密

B.梯度可反推出原始输入

C.服务器被恶意控制

D.本地模型容量过大

答案:B

详解:梯度与原始数据存在数学映射关系,攻击者通过“梯度反演”技术可高保真重建输入样本。加密(A)只能防止传输窃听,不能消除映射关系;C、D为辅助因素而非根本原因。

4.某企业使用生成式AI撰写新闻,若读者因虚假内容遭受财产损失,依据欧盟产品责任指令修订草案,责任主体排序为:

A.开发者→部署者→用户

B.部署者→开发者→用户

C.开发者与部署者连带→用户

D.用户自担,除非证明缺陷

答案:C

详解:修订草案将“具有自主决策能力的软件”纳入“产品”,开发者与部署者承担无过错连带责任,用户只需证明损害、缺陷与因果关系即可索赔,无需证明哪一方过错。

5.在“可解释AI”研究中,下列哪项指标最能衡量“局部解释”的忠实度?

A.Fidelity

B.Sparsity

C.Stability

D.Simulatability

答案:A

详解:Fidelity衡量解释模型与原模型在局部输入上输出的一致性,值越高说明解释越忠实。Sparsity关注特征数量,Stability关注输入扰动下的解释变化,Simulatability关注人类能否复现推理,均非直接测忠实度。

6.根据《人工智能伦理指南》提出的“可审计性”要求,以下哪项做法最不符合?

A.记录模型每次权重更新时的哈希值

B.允许第三方在沙箱中重跑训练流程

C.公开训练数据全体原始图片

D.保存超参数、随机种子与硬件配置

答案:C

详解:可审计性强调“可追溯”而非“无条件公开原始数据”,后者可能侵犯隐私与知识产权。A、B、D均提供追溯与复现路径,C过度披露。

7.当AI医疗诊断系统在不同种族群体间表现差异显著时,首要伦理诊断步骤是:

A.立即停用系统

B.重新训练模型

C.分析数据标注差异

D.降低整体准确率阈值

答案:C

详解:差异根源常在于标注偏见或样本分布不均,直接停用(A)浪费资源;重训(B)可能复现偏见;调阈值(D)治标不治本。先溯源才能精准纠偏。

8.在“人机协同”决策中,若人类过度依赖AI而降低自身技能,该现象被称为:

A.自动化偏见

B.技能退化效应

C.算法锁定

D.认知卸载

答案:B

详解:技能退化效应(skillatrophy)指人因长期依赖自动化系统导致原有能力退化。自动化偏见(A)指人盲目相信AI输出;算法锁定(C)指系统僵化;认知卸载(D)是中立概念,不必然退化。

9.若某国立法要求“高风险AI系统”必须配备“伦理红队”,其首要职责是:

A.找出系统潜在歧视场景

B.编写技术白皮书

C.监测服务器温度

D.提升模型准确率

答案:A

详解:伦理红队核心任务是模拟攻击者与弱势场景,发现伦理风险。B为文档工作;C属运维;D为性能优化,均非伦理专属。

10.在AI招聘工具中,若公司用“历史员工绩效”作为训练标签,最可能违反的伦理原则是:

A.公平性

B.可解释性

C.鲁棒性

D.隐私性

答案:A

详解:历

文档评论(0)

156****9588 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档