高风险人工智能安全监管的域外模式与本土路径研究 (1).pdfVIP

  • 0
  • 0
  • 约2.37万字
  • 约 11页
  • 2026-01-21 发布于福建
  • 举报

高风险人工智能安全监管的域外模式与本土路径研究 (1).pdf

《北京行政学院学报》2025年第5期●地方政府与数字治理

中图分类号:TP18;D922文献标识码:A文章编号:1008-7621(2025)05-0084-11

高风险人工智能安全监管的域外模式与

本土路径研究

□邹涛

(最高人民法院环境资源审判庭,北京100160)

摘要:当前,高风险人工智能安全监管是全球数字时代的核心议题。高风险人工智能

是指强人工智能、超级人工智能,以及符合“显著威胁”说标准的弱人工智能。欧盟的

“双重认定+双向要求”、美国的联邦与州分层协同以及韩国的发展优先等监管模式,注

重理念引导、制度保障、技术支撑和法律规范,同时存在隐私泄露、伦理失范及恶意使用

等问题。我国相关监管举措亦存在诸多不足,应从坚持以人为本、安全和发展并重及公

众参与等三大理念,打造全过程动态安全监管模式,实现以技术规制和化解风险的主动

防御,健全高风险人工智能安全监管法律体系等方面进行完善。

关键词:高风险人工智能;弱人工智能;强人工智能;安全监管

近日,ChatGPT模型私自篡改关闭程序这智能水平,未来可能在操作者毫不知情的情况

一报道,引发了公众对“AI意识觉醒”这一话题下,执行并非操作者所期望或预测的行动。一

的关注。最新研究成果显示,AI技术的发展前旦失控,就有可能带来灾难性甚至是生存层面

景标示着人类将首次面对由巨大的非人类能的风险。高风险人工智能,更是人工智能安全

量所构筑的“智能体”。当预训练数据量增加监管的重点。如何对其进行有效监管,已成为

到某个值时,这一“智能体”会在某一刻突然拥抢占人工智能时代国际话语权的重要战略方

有以前没有的认知能力,出现“AI意识觉醒”现向。比如,欧盟正把《人工智能法案》作为数

[1]48字主权在人工智能领域的延伸,力求催生潜在

象。这一现象之所以引起关注,是因为其涉

[2]

及人工智能安全监管的问题。的“布鲁塞尔效应”。我国关于该领域的研

当前,人工智能安全监管是全球数字时代究大多基于弱人工智能背景,无法适应人工智

的核心议题。2025年7月25日,世界人工智能快速发展需求。本文将从强人工智能语境

能大会发布《AI安全国际对话上海共识》指出发探究高风险人工智能安全监管的域外模

出,人工智能系统正迅速接近并可能超越人类式与本土路径,助推我国人工智能产业“以人

收稿日期:2025-05-08

基金项目:研究阐释党的二十大精神国家社科基金重大项目“中国式反腐败国家立法研究”(23ZDA134)

作者简介:邹涛(1980—),男,最高人民法院环境资源审判庭一级高级法官助理、副研究员、法学博士。

-84-

《北京行政学院学报》2025年第5期●地方政府与数字治理

为本、智能向善”发展。智能尚无先例可循。但在弱人工智能语境下,

结合欧盟《人工智能法案》相关规定,通常将那

一、强人工智能语境下的高风险人工智能

些依据预期用途、潜在危害的严重性及发生概

界定及风险表现

率,对公民健康、安全、基本权利以及社会稳定

准确理解和把握高风险人工智能的内涵、等方面构成显著威胁,且被严格限定于特定领

外延和风险表现,结合强人工智能的语境进行域的人工智能,定义为高风险人工智能,此种

深入分析和讨论,是开展高风险人工智能安全界定可概括为“显著威胁”说。还有学者以人

监管研究的逻辑起点和重要前提。

文档评论(0)

1亿VIP精品文档

相关文档