开源人工智能负责任创新的法律保障.pdfVIP

  • 0
  • 0
  • 约4.86万字
  • 约 17页
  • 2026-01-21 发布于福建
  • 举报

开源人工智能负责任创新的法律保障.pdf

开源人工智能负责任创新的法律保障

张凌寒何佳欣*

内容提要:开源是人工智能发展的重要驱动力,其责任规则的科学配置关乎技术生态的可

持续发展。现行法律对开源模型的规制沿用开源软件责任认定和人工智能责任规则双重路

径,导致责任认定面临有限控制力与归责逻辑错位等结构性矛盾。本文主张责任体系更新

应立足于开源模型公共属性、算法透明度增益效应及控制力边界三重维度,整合开源社区

协同治理范式与域外立法竞争格局,构建“形式合规激励—实质伦理约束”的双层责任减

免机制,对负责任创新的开源模型原则上适用行政合规与民事责任减免,在防范系统性风

险的同时释放开源公地的创新活力,实现技术扩散激励与社会责任承担的规范平衡。

关键词:开源人工智能模型负责任创新责任减免

DOI:10.19350/j.cnki.fzsh.2025.03.002

当下,开源模型DeepSeek的成功无疑极大鼓舞了中国人工智能产业,Meta首席人工智能科学

家YannLeCun在社交媒体上称其标志着“开源模型正在超越专有模型”,展现了开源群智力量。斯

坦福报告显示,2024年1月初,领先的闭源模型性能比顶级开源模型优越8.0%,而到2025年2

月,这一差距已缩小至1.7%。这种技术迭代预示着,未来以开源基础模型构建人工智能生态可能

成为产业常态,新一代开源模型正通过权重、训练数据及微调参数等的开放,推动技术民主化进程

加速演进。开源治理层面,当前全球开源治理体系正处于规则重构的窗口期,各国加速调适监管框

架,欧盟《人工智能法案》率先确立开源模型附条件豁免规则,美国国家标准与技术研究院

(NIST)亦启动开源系统风险评估框架研究,凸显治理范式转型成为全球共识。在全球加速重构开

源治理规则的关键节点,我国急需构建开源模型责任认定规则,为本土开源模型稳健发展保驾护

航。鉴于此,本文将着重讨论如下问题:从开源软件到开源人工智能,既有的开源责任认定规则将

面临何种挑战,开源模型责任体系更新需着重考虑哪些因素,以及应当如何构建适配开源模型的法

律责任体系。

一、现行法律框架下开源人工智能的责任规则及其困境

(一)开源模型所涉法律责任纠纷类型概述

开源模型相关法律纠纷中技术特征与权益冲突相交织。梳理已有的涉及开源模型的案件可以发

*张凌寒,中国政法大学数据法治研究院教授,博士生导师;何佳欣,中国政法大学法律学院硕士研究生。本文系司法部

2024年度法治建设与法学理论研究部级科研项目“人工智能时代网络空间安全风险识别与法律应对”(项目批准号:

24SFB1011)的阶段性成果。

·32·

开源人工智能负责任创新的法律保障

现,知识产权侵权纠纷是最为典型且常见的争议类型,个人信息、垄断、偏见与歧视以及恶意使用

所引发的责任形式呈现出因技术特性与应用场景交互而不断演化的法律样态。

第一,训练数据知识产权侵权纠纷中,开源与否确为人工智能侵权中的抗辩事项和争议点之

一,“开源”的认定标准不明导致法院难以在认定侵权责任时将开源纳入考量范围。从域外司法实

譹訛

践来看,Andersenv.StabilityAILtd.案中,原告指控被告未经授权通过网络爬取大量受版权保护的

图像用于训练模型。被告并未以开源提出抗辩,但在举证责任上认为其作为开源模型,如果原告认

为其模型包含训练图像的“压缩副本”,他们需要定义“压缩副本”并提供支持事实。原告则质疑

“开源”

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档