论人工智能刑事风险的体系定位与立法属性.docxVIP

论人工智能刑事风险的体系定位与立法属性.docx

  1. 1、本文档共22页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

?

?

论人工智能刑事风险的体系定位与立法属性

?

?

摘要:人工智能刑事风险并非属于一种“超个人风险”类型。对人工智能刑事风险认知的主观幻化现象进行逐一诘问,能够得知:超个人风险分为事实层面的现象风险和规范层面的法律风险,智能产品在设计和编制程序范围外,其所实施的严重社会危害性行为仅是一种纯粹事实的现象风险。人工智能产品刑事责任评价的路径阻却在于智能技术本身缺乏生活情感的经验总结、智能产品适用刑罚规范不具备现实意义、深度学习是凭借人类思维模式的基础输出进行的。人工智能刑事风险的立法归责应确立限制从属性,亦即,限制可允许性与超越性的人工智能风险之存在,明确人工智能刑事风险从属于自然人主体。继而,可为人工智能时代刑法立法的科学化探索奠定理论基础。

关键词:人工智能;“超个人风险”;智能产品;刑事责任

“AI”作为一种概括性科技术语,是由算法系统组成的认知、感应技术。如今尖端从业者倾向于通过智能产品在算法系统中的深度学习,从多层次的集合数据中提取人类的结构特征[1]。由此智能产品自主决策思维模式下的危害行为,开始突显于现实社会的各类境况之中,典型情形主要存在于“自动驾驶汽车、服务机器人”领域。至此,学界开始对人工智能刑事风险的责任承担进行反思,进而提出诸多议题。但目前就人工智能刑事风险的性质研究来看,多偏向于一家之言如下文将要论述的智能产品“独立刑事责任论”“权利主体类型正当性”这两种典型观点。,其引导社会舆论和学界探究,呈现出刑事责任认定结构的嬗递之特质,从而动摇刑事归责系统的理论根基。理性对待人工智能时代下刑事风险的结构性转变,是否需要动辄更改现有的刑事责任基础,应当立足客观现实的事实基础进行充分的科学论证。盲目地将主观臆造的智能风险引入现实社会之中,无疑大规模诱发、扩散国民无端的恐慌与焦虑。本文拟立足对人工智能刑事风险“超个人化”现象之诘问,从多维视角论述人工智能产品个体化刑事责任评价的路径阻却,并推断人工智能刑事风险具有人类危害行为的依附性(拟制性)和决定性,以便立足既有的刑事责任理论,理性对待智能科技风险。

一、现象诘问:人工智能刑事风险是否呈现“超个人化”

随着智能时代的新技术和新工具的不断涌现,数字革命历经从“优化组合”到“模块分析”的演进,最后蜕变为“自主决策”的阶段化学习。在智能科技渐趋成熟之际,人工智能产品创设了一个模仿或复制个体“人”的思维过程[2]。在自主学习过程中,人工智能产品可能会独立脱离技术初始研发者、使用者和管理者输出的基础思维,继而操作一系列严重危害社会的行为。对于智能产品的现实行为危害,是否有必要单独依据运行基础系统的算法模式,将其理解为一种“超个人风险”类型?“就一元论的先验个体图式而言,在这一理论支配下的超个体法益样态,虽然摆脱了经验式个人的束缚,但又走向了另一极端,即否定了社会及身處其中的个人之真实性”[3]。因而,承认超个人法益的学者亦然妥协地表明:“超个人”实质内涵的理解虽然挣脱了经验式个人的桎梏,但与此同时,其也忽视了人之所以为“社会人”表达的真实性。机器学习具备一定基础的思维训练,但在视觉、听觉、语言方面的系统处理过程中,智能产品可能在设计者的编程和程序外产生独立的行为自由。

由此导致的现实问题之一:是否意味着通过后续的深度学习,“智能机器人完全可能具有与人一样的辨认能力和控制能力,也完全可能通过深度学习,在设计和编制的程序范围外实施严重危害社会的行为”[4],继而认为其是一种人工智能产品的超个人风险类型,据以赋予它独立承担刑事责任的能力,将超个人风险评价为刑事法约束的风险类型?刑事责任能力作为非难可能的一种人格状态,其要求对于超个人风险的罪责评价,应当是构建于行为要素的理解力和刑罚的承受力基础之上的。因此,如何评价人类基础思维灌输后的智能产品深度学习的超个人风险,则成为化解编程和系统外的独立危害行为的关键性问题。犯罪事实作为刑罚苛责的基本前提,应当明确法律事实和客观事实的评价差异[5],将超个人风险划分为事实层面的现象风险和规范层面的法律风险。智能产品在设计和编制程序范围外实施的严重社会危害性行为,则是一种纯粹事实的现象风险。主要原因在于:智能产品缺乏对危害行为的理解力和刑罚的承受力,在危害行为发生之际,智能产品并无能力提前预知行为风险的存在,进而控制和支配危害行为的进程。

此外,刑罚的承受力无法在人工智能产品本身得以疏通,销毁机器、删除数据、更改系统等针对性刑罚设置无异于多此一举。刑罚苛责对于机器人而言,仅是一种外在数据信号的映射,一种同外界环境变化的现象感应。鉴于此,超个人风险规范层面的法律风险类型,无法在智能产品本身中探寻。

然而,现实问题之二:机器人系统操作的一种纯粹辨认能力的根源何在?算法作为人工智能系统运行的基本路径,智能产品一旦牵涉“意识”,强人工智能的定义

文档评论(0)

150****5008 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档