- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
2025年人工智能伦理与法律课程考试试题及答案
一、单项选择题(每题2分,共20分)
1.以下哪项不属于人工智能伦理“透明性”原则的核心要求?
A.算法决策过程可被追溯
B.训练数据来源可公开查询
C.模型输出结果的逻辑可解释
D.开发者对算法设计意图进行说明
答案:B(透明性原则强调决策过程的可解释和可追溯,不要求训练数据完全公开查询,需平衡隐私保护)
2.根据2024年修订的《中华人民共和国人工智能法(草案)》,对“高风险AI系统”的定义不包括以下哪项特征?
A.直接影响自然人生命健康
B.处理超过100万人的个人信息
C.用于公共安全领域的图像识别
D.金融机构的信贷审批模型
答案:B(草案明确高风险AI系统需满足“直接关涉重大人身财产安全或公共利益”,处理大规模个人信息但无直接风险的不属于)
3.欧盟《人工智能法案》(AIAct)将生成式AI服务归类为“高风险”的核心依据是?
A.训练数据量超过10TB
B.可能对自然人的基本权利造成重大侵害
C.输出内容具有创造性
D.服务用户数量超过欧盟人口的5%
答案:B(欧盟以“风险等级”为核心分类标准,生成式AI因可能引发虚假信息、人格权侵害等被列为高风险)
4.某医疗AI系统因训练数据中女性患者样本不足,导致对女性疾病诊断准确率低于男性30%。这一现象主要违背了AI伦理的哪项原则?
A.责任可追溯性
B.公平性
C.人类主导性
D.隐私保护
答案:B(数据偏差导致的结果不平等,直接违反公平性原则)
5.我国《生成式人工智能服务管理暂行办法》(2023修订)规定,对用户输入信息和生成结果的保存期限为?
A.1个月
B.6个月
C.1年
D.2年
答案:C(修订后明确保存期限为1年,用于监管追溯)
6.自动驾驶汽车在“电车难题”场景下(需选择碰撞行人或保护乘客),其决策程序设计的法律争议核心是?
A.技术可行性
B.道德价值选择的合法性
C.数据标注的准确性
D.保险公司的赔付范围
答案:B(法律争议焦点在于算法预设的道德优先级是否符合社会伦理和法律价值)
7.以下哪项属于AI“算法歧视”的典型表现?
A.招聘AI因求职者毕业院校标签降低评分
B.导航AI根据实时路况推荐不同路线
C.教育AI根据学生答题速度调整题目难度
D.医疗AI基于患者基因数据预测患病风险
答案:A(毕业院校标签与岗位能力无直接关联,属于不合理的差异化对待)
8.根据OECD《人工智能原则》,“可问责性”(Accountability)要求不包括?
A.明确AI系统的责任主体
B.建立争议解决的救济渠道
C.公开算法的全部技术细节
D.保留决策过程的审计记录
答案:C(可问责性不要求公开全部技术细节,需平衡商业秘密与责任追溯)
9.某社交平台AI推荐算法因放大极端观点导致用户群体对立,平台的法律责任认定关键在于?
A.算法是否具有自主学习能力
B.平台是否对算法输出结果进行人工审核
C.用户是否主动选择“个性化推荐”
D.极端观点是否构成法律禁止的内容
答案:D(若输出内容本身违法,平台需承担内容审核责任;若仅为观点对立未违法,则需考察算法设计是否存在过失)
10.人工智能“合成数据”在法律上的核心争议是?
A.数据生成的技术复杂度
B.合成数据是否侵犯原始数据主体的权益
C.合成数据的存储成本
D.合成数据与真实数据的相似度
答案:B(合成数据可能隐含原始数据的隐私信息或偏见,引发对原始数据主体权益的间接侵害)
二、简答题(每题8分,共40分)
1.简述“人类中心主义”在AI伦理中的具体内涵及其与“技术中立性”的冲突。
答案:
“人类中心主义”指AI系统的设计、运行和应用必须以人类的根本利益为最终导向,确保人类对AI的控制和主导地位。具体内涵包括:(1)AI作为工具服务于人类需求,不得替代人类的核心决策(如司法裁判、医疗急救);(2)AI的伦理价值需符合人类社会的普遍道德准则(如尊重生命、公平正义);(3)人类对AI的后果承担最终责任,禁止“算法暴政”。
与“技术中立性”的冲突体现在:技术中立性主张技术本身无善恶,责任在于使用者;但人类中心主义要求技术设计阶段即嵌入伦理约束(如主动避免偏见、设置安全阈值),否定“中立”借口下的责任逃避。例如,自动驾驶算法不能以“技术中立”为由,预设优先保护车内乘客的程序,而需符合社会对生命权平等的价值判断。
您可能关注的文档
最近下载
- 海军概况(中国人民解放军海军指挥学院)网课期末测试答案(卷一).pdf
- 天津市建筑标准设计图集(2012版)12J3-1外墙外保温.pdf VIP
- 2025年秋新人教版生物八年级上册全册教案(优化版).docx
- 2025年4月26日浙江省事业单位招聘考试《职业能力倾向测验》笔试试题(含答案).docx VIP
- 国开03592-电气传动与调速系统机考复习资料.docx
- 海南省陵水黎族自治县国土空间总体规划(2020-2035)公示稿.docx VIP
- 国家开放大学电大专科《机械制图》机考网考形考网络纸考题库及答案.pdf VIP
- 柴油机移动泵车培训ppt课件.pptx
- GJC4使用说明书.pdf VIP
- 片冰机教程详解.ppt VIP
原创力文档


文档评论(0)