生成式人工智能使用者注意义务的规范来源 (1).pdfVIP

  • 0
  • 0
  • 约2.85万字
  • 约 12页
  • 2026-01-21 发布于福建
  • 举报

生成式人工智能使用者注意义务的规范来源 (1).pdf

山东大学学报(哲学社会科学版)2025年第5期第152-163页

生成式人工智能使用者注意义务的规范来源

刘承韪马瑞聪

摘要:在生成式人工智能全生命周期治理要求下,对使用者行为的法律监管不可或缺。鉴于生成式人工智

能具体应用场景与使用者身份的多样性差异,使用者的注意义务类型与内容应当作区分设计。原则上,使

用者享有使用自由,但不排除其因合同性质而承担亲自履行义务,或因制造禁止型使用风险而被禁止使用

的可能。使用者通常承担基于交往安全义务产生的内容标识义务与结果审查义务。但在商业服务与个人

信息处理活动中,使用者还需履行必要的信息披露以及解释说明义务,以满足消费者与个人信息主体的特

别保护需求。对于可能引发高度使用风险的专业使用者,还应当承担风险管理与预防、输入数据质量控制、

系统更新与维护等义务。

关键词:生成式人工智能;深度伪造;使用者义务;注意义务;DeepSeek

DOI:10.19836/ki.37-1100/c.2025.05.014

一、问题的提出

以ChatGPT、DeepSeek等为代表的人工智能模型被广泛应用于文本创作、图像生成、智能对话

等多元领域。与此同时,由新兴技术应用引发的虚假信息传播、自动化偏见等系统性风险,对现行法

律提出了治理挑战。生成式人工智能技术在应用阶段的风险转化主要取决于使用者。结合我国

《人工智能示范法3.0》的定义,使用者是指“依照人工智能的性能和用途对其加以利用的个人、组织”。

使用者的控制能力通常表现为指令输入、参数调整与场景选择。无论是通过提示词工程引导内容生

成方向,还是利用深度合成技术制造虚假信息,使用者的具体操作都直接影响技术应用的合规边界。

对此,应当首要关注现行法律如何评价使用者行为。

当前我国人工智能治理呈现法律与各项规章制度相结合的多层次治理规范体系。受规范制定

主体权限与目标的影响,现行规章制度主要聚焦于人工智能的技术风险治理与服务提供者监管,而

未直接规范使用者。因此,当深度合成内容侵犯他人合法权益时,仍需依据《中华人民共和国民法典》

(以下简称民法典)第1165条过错责任原则、《中华人民共和国个人信息保护法》(以下简称个保法)第

13条个人信息处理合法性基础等法律规则评价使用者行为。但在面对生成式人工智能技术的复杂性

与不透明性问题时,传统以过错为中心的责任认定机制已难以应对。

在此背景下,明确生成式人工智能使用者的注意义务及其标准,具有双重实践意义。一方面,使

用者的注意义务,是指使用者按照生成式人工智能的性质或用途,在使用过程中应当承担的必要的审

基金项目:北京市社科基金重点项目“北京市文化产业立法研究”(24FXA001)。

作者简介:刘承韪,中国政法大学比较法学院教授,博士生导师(北京100088;lexway@126.com);马瑞聪,中国政法大学比较法

学院博士研究生(北京100088163.com)。

①林北征:《论生成式人工智能服务提供者的注意义务》,《法律适用》2024年第10期。

②高志宏:《回应与超越:生成式人工智能法律规制——以〈生成式人工智能服务管理暂行办法〉为视角》,《社会科学辑刊》2024年

第5期。

③张凌寒:《深度合成治理的逻辑更新与体系迭代——ChatGPT等生成型人工智能治理的中国路径》,《法律科学》2023年

第3期。

④丁晓东:《从网络、个人信息到人工智能:数字时代的侵权法转型》,《法学家》2025年第1期。

152

生成式人工智能使用者注意义务的规范来源

慎义务。通过明晰注意义务的类型与内容,能够为使用者从事合规行为提供正向引导,避免因其自身

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档