未来尚未到来——人工智能统一立法模式的内在悖论.pdfVIP

  • 0
  • 0
  • 约2.21万字
  • 约 13页
  • 2026-01-21 发布于福建
  • 举报

未来尚未到来——人工智能统一立法模式的内在悖论.pdf

交大法学SITuLawReview

No.6(2025)

未来尚未到来

人工智能统一立法模式的内在悖论

王凌*

摘要人工智能技术的广泛应用带来了各种潜在问题,欧盟通过制定《人工智能法案》应对这些

问题,但这种“统一立法模式”在应对人工智能时存在难以克服的内在悖论。人工智能的自主性或黑

箱特点并未改变法律规范评价的核心焦点,即对行为及其结果属性的关切,现有法律框架足以充分评

价和有效控制人工智能的应用及其直接后果,无须额外的统一立法。更重要的是,《人工智能法案》立

足于现有欧洲法律价值体系,无法妥当回应科林格里奇悖论式的挑战,因为其忽视了人工智能技术可

能引发的深远社会变迁和人类价值重构。应当放弃“一法定乾坤”的立法思路,转而采用更为渐进、灵

活的“分散立法模式”,以应对人工智能开发和应用之外更深远的社会后果。

关键词统一立法模式分散立法模式科林格里奇悖论人工智能新兴技术

一、引言

近年来,人工智能产业迅猛发展,广泛应用于社会、经济、文化等各个领域。从工业生产中的

智能制造到医疗健康领域的疾病辅助诊断,从金融服务中的大数据风控到教育行业的个性化学

习,人工智能技术正在不断突破人们想象力的极限,深度改造甚至颠覆着传统业态。人工智能与

我们的日常生活也日益须史不可分,家电的自动化控制、机动车辅助驾驶、商品与内容的个性化推

荐,无一不在塑造着我们的生活方式。在市场驱动的应用之外,人工智能还在公共部门显示出其

广泛的运用前景,在法律实施、公共安全保障以及社会治理的其他诸多方面都展现出强大的应用

潜力,显著提升了国家治理效能。

在积极改变人类生活乃至生存样态的同时,人工智能的广泛部署也带来相应的严峻挑战和潜

*浙江大学光华法学院副教授、法学博士。本文系国家社会科学基金年度项目“法教义学正当性基础及其实践

意义研究”(项目编号:25BFX002)的阶段性成果。

47:

交大法学2025年第6期

在风险。数据安全、隐私保护、平等对待、尊严保障、清晰问责、算法公平性等问题更为凸显,对现

行法律体系构成挑战。人工智能的训练往往依赖海量数据,而数据采集、存储和利用过程可能涉

及用户隐私和个人信息泄露、滥用。尤其在个人数据被无意识收集或未经许可共享的情况下,现

行法律制度无法充分保护公民权益。此外,由于算法模型的复杂性和“黑箱”特征,甚至开发者自

身都难以完全了解其决策过程,不可避免地带来了算法偏见,加剧对特定群体的不当差别对待。

人工智能决策过程的不透明和相应问责机制的缺位则在强化旧有的权力结构的同时创造全新的

不受控权力。而大模型人工智能生成内容的泛滥可能导致事实与虚构的界限模糊,虚假信息的大

规模扩散加剧社会信任危机,让“知识”与“真”成为极度稀缺的资源。更令人担忧的是,过度依赖

人工智能可能削弱人类的自主或能动实践能力,个人与社会的日常价值偏好甚至政治偏好都将是

人工智能深度操控的对象。当人类的偏好、倾向、欲望都源于人工智能系统的塑造时,人类积极筹

划自主生活的前景似乎一片晦暗。

每当遇到严重的社会问题而现有法律制度又不敷其用时,一个顺理成章的结论是:这里一

定有重要且紧迫的一整块立法空白需要填补。(1】假如这种“立法空白必须被填补”的冲动恰好

又有相应域外法治先进国家或地区立法作为典范来呼应,这种职业信仰更会多一份坚定的

信心。

欧盟的《人工智能法案》(ArtificialIntelligenceAct,以下简称《法案》)就恰好构成了这样一种

立法典范,它试图以统一和整全的单独立法来全面回应人工智能带来的社会问题。《法案》采纳了

一个以基本权利为中心、基于风险分级的“统一立法模式”。《法案》以风险为导向设立起分级监管

框架,根据人工智能系统的潜在风险,实施分类管理。在程序上明确了人工智能系统生命周期各

环节的责任分配,从研发、部署到使用,要求相关方承担相应的义务和责任,并确立相应问责机制。

虽然整部法案以21世纪最前沿技术为对象,但潜藏在表象之后的是19世纪法典化的古典激情:

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档