网站大量收购独家精品文档,联系QQ:2885784924

中职《走近人工智能》(商务印书馆·2022) 12.4人工智能伦理研究与立法 课件(共23张PPT).pptxVIP

中职《走近人工智能》(商务印书馆·2022) 12.4人工智能伦理研究与立法 课件(共23张PPT).pptx

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、本文档共23页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第十二章人工智能伦理规范 目录二、危机所在:人工智能的危险三、伦理规范:人工智能伦理法则四、立法问题:人工智能伦理研究与立法一、角色变化:人工智能的三种角色 人工智能伦理规范本章知识思维导图“人工智能可能代表着某种文明的危险,这不仅仅是在个人层次,所以的确需要大量的安全性研究。”--埃隆·马斯克(ElonMusk,特斯拉和SpaceX负责人)一、角色变化:人工智能的三种角色三、伦理规范:人工智能伦理法则四、立法问题:人工智能伦理研究与立法二、危机所在:人工智能的危险 (四)行业领袖提出的人工智能伦理准则其次,是谷歌公司。谷歌公司认为,当AI系统被广泛运用到各行业之后,有一些长期的研究问题需要提前关注,关注这些问题对AI系统有着至关重要的作用。为此,他们为具有学习能力的机器系统提出了安全准则:(1)要避免“副作用”。即要考虑如何保证AI系统不会在完成目标的过程中干扰周遭的环境;(2)避免AI“投机取巧”。以保洁机器人为例,如果我们将机器人的任务目标设定为“周围没有任何杂物”,结果机器人并没有进行清洁,反而是用布或者纸张将杂物盖住,这样一来它“看不见”杂物也就“投机取巧”地完成了任务;(3)发挥AI的“理解力”。AI系统在执行任务前往往需要得到人类的首肯。我们该让AI能够理解人类的情感偏好,可以做到机器人在脱离人类的帮助的情况下,迅速“领悟”其任务的关键;(4)安全进 四、立法问题:人工智能伦理研究与立法 (一)未来的命运取决于人类自己犹太人尤瓦尔·赫拉利(Yuval Noah Harari)在《人类简史》后记中写道:“时今日,智人似乎只要再跨一步就能进入神的境界,不仅有望获得永恒的青春,更拥有创造和毁灭一切的力量……我们拥有的力量比以往任何时候都要强大,但几乎不知道该怎么使用这些力量。更糟糕的是,人类似乎也比以往任何时候更不负责。我们让自己变成了神,而唯一剩下的只有物理法则.…”“人工智能也有可能是人类文明史的终结,除非我们学会如何避免危险。”--霍金这一心态是可怕的,最终的罪恶依然要人类自己来承担。当前,世界大部分家都在集中力量发展人工智能,并且亚太地区、美洲地区和欧洲地区的主要国家在机器人研发项目方面的目标各有不同。例如在亚太地区,日本的战略是“机器人新战略和机器人革命”,韩国是“打造人人拥有机器人的社会”,中国是“促进机器人技术和产业的发展”;美洲地区以美国为代表,主要是要“普及协作机器人”;欧地区是“地平线2020”,德国是“人机交互的创新潜力”,意大利是“工业4.0”。这足以看出人工智能的重要性,可以预见,人工智能在未来几十年会加速发展。如果人类只是一味地追求发展而置技术伦理和技术危险于不顾,那么这样的发展则盲目的。 面向未来,随着人工智能越来越多地介入人类生产生活,有关这项技术的“电子人格”、网络安全防护、算法偏见、自动化武器研发等成为社会热议的话题。与此同时,隐藏在人工智能技术创新下的安全威胁,可能比传统的安全风险更难应对。这对人工智能的技术设计、应用范式、隐私保护、安全监管等环节提出更高的要求。(一)未来的命运取决于人类自己从1956年在美国达特茅斯学院举办人类历史上第一次人工智能研讨会开始,人工智能几经波折已走过了六十多年的发展历程。大数据、学习算法和计算能力等技术的飞速发展,让人工智能匹敌人类逐渐成为现实。 许多人对人工智能充满兴趣,也有许多人对此心怀恐惧。英国小说家玛丽·雪莱的小说《弗兰肯斯坦》讲述了一位理工科学生创造了一个科学生物,这个生物最终变成了杀人狂,像这样的情况就是令人恐惧的。人工智能会不会在达到“奇点”超越人类智力之后,与人类作对呢?美国奇点大学校长雷·库兹韦尔预言,“奇点”会出现在2045年。然而,“奇点”之后的人工智能将如何与人类相处,完全取决于人类自已。《人工智能》一书的作者多梅尔认为,不在于人类是否能设计出比自身好的东西,而在于政策是什么以及人们决定要用技术去做什么。”目前各国政府、企业也越来越重视这一问题。(一)未来的命运取决于人类自己 2016年以来,人工智能技术在许多方面有了突破,例如智力游戏、自动驾驶、医疗器械、语音识别、图像识别、翻译、情感等诸多领域取得重大突破,谷歌、“脸书”、微软等科技巨头收购人工智能创业公司的速度已经快赶上这些公司的创立速度。一方面,人工智能快速发展;另一方面,全球对人工智能的伦理问题、法律问题、社会影响问题的关注也在增多,部分国家还出台了专门的战略文件引导人工智能发展。(二)人工智能伦理问题的研究英国《机器人与人工智能》报告呼吁加强人工智能伦理研究,最大化人工智能的益处,并寻求最小化其潜在威胁的方法。美国《国家人工智能研发战略计划》提出开展人工智能伦理研究,研发新的方法来使人工智能与人类社会的法律、伦理等规范和价值相一致。 (1)在人工智能伦理研究方面,

您可能关注的文档

文档评论(0)

中小学教学资料 + 关注
实名认证
服务提供商

提供小学、初中、高中信息科技教案、试卷、课件等优质教学资源

1亿VIP精品文档

相关文档