第五单元 第5课《人工智能与社会公平》课件【清华大学版】人工智能通识 初中 信息技术.pptxVIP

第五单元 第5课《人工智能与社会公平》课件【清华大学版】人工智能通识 初中 信息技术.pptx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

第五单元第5课

人工智能与社会公平

1

学习目标

3

新知讲解

5

拓展延伸

7

板书设计

2

新知导入

4

课堂练习

6

课堂总结

课后作业

8

01

教学目标

(1)理解人工智能应用中的公平性问题,包括数据偏差导致的歧视和特殊群体面临的技术障碍,以及不公平使用的风险等。

(2)学习应对人工智能公平性挑战的方法,例如改进数据质量、推动无障碍设计和加强法律监管。

02

新知导入

​​人工智能引发的公平性问题​​

所谓公平性,是指AI在面对不同人群时不能产生系统性的行为偏差

02

新知导入

03

新知讲解

公平性问题产生的主要原因

老年人和残疾人等特殊群体的使用不便;

AI技术掌握在个别群体里,造成不公平使用

训练数据本身的偏差带来的系统歧视;

03

新知讲解

​​1.数据偏差是AI歧视的根本源头​​

训练数据若包含历史偏见,如招聘数据中的性别倾向,AI模型会学习并再现这些歧视,甚至进一步放大不公。

03

新知讲解

2.典型领域:招聘中的性别歧视案例​​

亚马逊AI招聘工具因训练数据以男性简历为主,导致系统自动贬低女性求职者评分,最终项目因无法解决偏见被终止。

03

新知讲解

3.AI歧视的恶性循环效应​​

AI不仅复制人类社会的既有偏见,其自动化决策的规模性会使歧视系统化、扩大化,更难被发现和纠正。

03

新知讲解

4.COMPAS系统的种族偏见案例​​

2016年ProPublica调查显示,COMPAS算法对7000多名被告的预测存在显著种族歧视:黑人被错误标记为高风险的概率是白人的两倍,凸显数据驱动的系统性不公。

03

新知讲解

​5.偏见根源:数据与社会的恶性循环​​

训练数据源自带有种族偏见的执法记录,AI学习这些偏差后反向强化歧视,形成不公的闭环。

03

新知讲解

​​6.AI信用评分的广泛应用与潜在歧视​​

AI广泛应用于金融领域的信用评估,但因数据偏差可能导致对特定族群的系统性评分不公。

03

新知讲解

7.AppleCard性别歧视典型案例​​

2019年AppleCard被曝性别偏见:包括程序员汉森和沃兹尼亚克的多名男性用户获得的信用额度远超其妻子,尽管夫妻财务共享,但仍凸显算法黑箱与解释性缺失。

03

新知讲解

8.少数族裔的金融歧视问题​​

研究显示,AI信用模型常给予白人申请者更高评分,而非裔、拉丁裔及低收入群体则面临更低额度或更高利率,加剧历史性经济不平等。

03

新知讲解

9.偏见根源与治理困境​​

歧视源于历史经济数据,如收入差距、信贷记录差异等,且算法决策缺乏透明度,导致监管与整改困难。

03

新知讲解

1.特殊群体的AI使用障碍与公平性缺失​​

老年人、残障人士因技术适应能力、生理限制等因素,在AI普及中面临边缘化,难以平等享受技术红利。

03

新知讲解

2.老年人的数字化困境​​

疫苗接种预约、医疗挂号等线上服务的复杂操作界面与流程,使许多老年人无法获取基本服务,加剧数字鸿沟。

03

新知讲解

3.残障人士的AI边缘化问题​​

无人车、人脸识别、语音助手等AI设备应用缺乏无障碍设计,对视障、听障、行动障碍人群兼容性差。

03

新知讲解

4.数据代表性不足与技术缺陷​​

训练数据中残障人群样本稀缺,导致AI系统对特殊特征(如口音、面部畸形)识别错误率高,性能显著下降。

03

新知讲解

​1.技术垄断与权力集中风险​​

AI技术由政府部门或大型科技公司垄断,可能被用于大规模监控、强制生物信息收集(如指纹、面部识别),损害公民隐私与自主选择权。

03

新知讲解

2.数据滥用与市场不公平​​

垄断平台利用用户数据(如购物记录、行为偏好)进行算法操纵,如动态定价、诱导消费等,破坏交易公平,加剧社会资源分配不公。

03

新知讲解

​​1.AI不公平使用的社会危害​​

加剧弱势群体边缘化、破坏技术信任,甚至引发社会混乱。

03

新知讲解

2.多方协同的治理路径​​

需通过技术、法律与社会共同努力,系统性解决公平性问题。

03

新知讲解

3.AI促进公平的初心与未来潜力​​

技术本质是推动社会公平,当前问题源于历史数据偏见与使用不公,需通过持续改进实现正向价值。

03

新知讲解

1.请结合AppleCard性别歧视或COMPAS种族偏见的案例,讨论为什么“技术中立”的AI会产生歧视性结果?

(1)“技术中立”的AI之所以产生歧视性结果,是因为其训练数据中隐含了人类社会固有的历史偏见(如性别或种族歧视),导致算法在“客观”学习过程中复制并放大了这些不公。

03

新知讲解

2.当AI决策出现不公时,责任应由谁承担?是开发者、使用者、公司,还是算法本身?

(1)责任应由开发者、使用者和公司共同承担,因为算法本身无主观意识,其不公源于数据设计、应用监管和商业伦理的缺失。

03

您可能关注的文档

文档评论(0)

135****7584 + 关注
实名认证
文档贡献者

教师资格证持证人

该用户很懒,什么也没介绍

领域认证该用户于2024年05月08日上传了教师资格证

1亿VIP精品文档

相关文档