人工道德智能体的建构与实现.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
人工道德智能体的建构与实现 摘要:人工道德智能体自主程度越来越高,其引发伦理困境的实质是自主机器系统的“技术偏见”与人类伦理价值的冲突。当前人工道德智能体的建构依赖的特定技术模型或伦理理论并不完善。价值敏感性设计为人工道德智能体的实现提供多维视角,是一种整体性、动态性的实践方法论。在该框架下,人类价值被系统性分析并被嵌入到人工道德智能体之中,但该方法仍待完善,以实现人工道德智能体与人类社会的合理互构。 一、引 言 著名控制论专家诺伯特·维纳(Norbert Wiener)早在20世纪中叶就思考并预言了能够进行自主学习、自主决策的机器系统的产生。随着信息技术的发展,特别是深度学习、大数据等技术的运用,机器系统自主能力不断增强且具备一定的决策能力,成为人与人、人与世界的道德中介。基于此,有学者提出“人工道德智能体(Artificial Moral Agents, 又称AMAS)”的概念,对自主机器系统的道德地位以及实现方式等加以探讨。瓦拉赫(Wendell Wallach)和艾伦(Colin Allen)认为:“良好的道德智能体应该能够发现引发伤害或疏忽职责的可能性,并可采取措施避免或减少此类不良后果。” 人们对人工道德智能体的理解是不同的,且不同领域的建构方法也存在差异。本文试图对“人工道德智能体”的概念进行澄清,分析其所引发伦理困境的实质,并对当前人工道德智能体的建构进路进行批判,提出更为普适性的实践方法。 二、何谓人工道德智能体 “人工道德智能体”,该概念常被用来分析自主机器系统的伦理重要性。究竟何为“人工道德智能体”,人们从不同的视角进行了诠释。 摩尔(James H. Moor)在将人工道德智能体分为三类,即隐性的伦理智能体(implicit ethical agents),外显的伦理智能体(explicit ethical agents)以及完全的伦理智能体(full ethical agents)。银行柜员机被摩尔认为是一种隐性的伦理智能体,严格依赖内部的软件程序来工作,具备高可靠性和安全性;能够下象棋的计算机则是一种外显的伦理智能体,可以进行信息分析并“做伦理(do ethics)”;完全的伦理智能体可做出明确的道德判断,且通常有能力证明其合理性。这种智能体是否应该存在以及未来是否能够存在,还是未知的,因为在摩尔看来,完全的伦理智能体像人类一样具备意识、情感和自由意志。从机器系统引发伦理效应的一般意义上来看,这三种智能体均可被称为伦理效应智能体(ethical-impact agents)。 希玛(Kenneth Einar Himma)和弗洛里迪(Luciano Floridi)并未对人工道德智能体分类,而是就其 “心智(mind)”问题表达了看法。希玛对“agency”“moral agency”“artificial agents”等概念分析后认为,成为人工道德智能体的必备条件是内在的意识(consciousness)。虽然其是否能够具有意识仍然存在争论,即使能够具备意识,我们如何判断其意识能力也存在方法论上的困境。 瓦拉赫和艾伦则使用了“自主性”和“伦理敏感性(ethical sensitivity)”两个概念来表征人工道德智能体。随着计算机系统自主性不断增强,自身伦理敏感性持续提升,智能体会从最低级的自主性和伦理敏感性发展到具备“操作性道德(operational morality)”和“功能性道德(functional morality)”的阶段直至最终成为“完全的道德智能体(full moral agency)”。在该过程中,自主性和伦理敏感性并非完全同步,具备高自主性的智能体并不一定具备高度的伦理敏感性;而自主性低的智能体也可能具有较高的伦理敏感性。 从以上对人工道德智能体概念的分析中可看到,人工道德智能体是自主性、开放性等“硬”机器特质与“软”伦理向度的“混合体”,尽管这种伦理层面的意义是人类赋予而非机器内在生成的。这在塞万提斯(JoséAntonio Cervantes)与洛佩兹(Sonia López)等人对人工道德智能体的定义中可得到印证:“人工道德智能体是一种能够从事道德行为或至少避免不道德行为的虚拟代理(软件)或物理代理(机器人)。这种道德行为可能基于却不限于目的论、道义论、美德论等伦理理论。” 尽管人工道德智能体并未具备与人类一样的意识与情感,但这并不妨碍我们考察其行为的伦理意义。这是人类对当前人机关系现状的积极回应。正如希玛所坚持的:“如果一种机器像我一样说话,走路,并表现得足够好,它可能并不一定有‘心智’”,但我有责任将其视作道德智能体,并从道德和责任层面来理解其行为。 正如维贝克所言:“为了更好理解技术在人类生活中的积极角色,它们被看作某种智能体(Age

文档评论(0)

xlwkyc + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档