人工智能大模型训练中已公开个人信息的合理保护.pdfVIP

  • 0
  • 0
  • 约2.89万字
  • 约 12页
  • 2026-01-22 发布于福建
  • 举报

人工智能大模型训练中已公开个人信息的合理保护.pdf

河南财经政法大学学报2025年第6期(总第212期)

人工智能大模型训练中已公开个人信息的合理保护

罗世杰

(重庆大学法学院ꎬ重庆400044)

∗∗摘要:人工智能大模型在训练阶段将不可避免地处理载有已公开个人信息的公开数据ꎬ这容易

引发系列法律困境与利益冲突ꎮ对此ꎬ应充分考虑大模型训练中已公开个人信息处理的多元价值及动

态平衡ꎬ即因信息个体性需确保训练安全、因信息公开性需兼顾训练效能以及因信息可控性需考虑训

练理性ꎬ据此建构合理保护机制ꎮ为保障训练安全ꎬ应明确已公开个人信息合理处理范围的阶层式判

断标准ꎮ在非实质性处理场景下ꎬ信息处理通常被认为具有合理性ꎻ在实质性处理场景下ꎬ敏感信息处

理应被认定为不具合理性、非敏感信息处理则需依照其公开目的被予以区分认定ꎮ但无论何种情形ꎬ

均不得对信息主体权益造成重大影响ꎮ在此基础上ꎬ训练主体应以“事前统一公示事后特殊报告”双

轨并行机制履行告知义务ꎬ即事前确保公示内容具有可预期性、事后报告以信息主体请求的内容为限ꎬ

以此提升模型训练效能ꎮ除此之外ꎬ已公开个人信息主体行使拒绝权时需满足“明确禁止”要求ꎬ且事

后拒绝不具有溯及力ꎬ从而使训练主体得以豁免部分责任ꎮ

关键词:人工智能大模型ꎻ模型训练ꎻ已公开个人信息ꎻ价值平衡ꎻ合理保护

---

中图分类号:D923ꎻD922.17文献标识码:A文章编号:20953275(2025)06006012

一、问题缘起

以GPT、DeepSeek等为代表的人工智能大模型(以下简称“大模型”)正加速引领人工智能技术迈

入通用化阶段ꎬ其算法演进和应用拓宽推动着以数据为中心的数字社会形态重构ꎮ大模型的生成能力

很大程度取决于训练数据的广度与深度ꎬ而训练语料库的构建往往离不开对大量公开数据的自动抓取

和处理ꎬ其中便囊括了已公开的个人信息ꎮ正如Meta公司因大模型训练活动面临的法律风险所示ꎬ

即便个人信息已被公开ꎬ但能否将其用于大模型训练仍存在较大争议ꎮ特别是在未取得信息主体明示

同意的情况下ꎬ大模型对公开数据的训练可能构成对信息主体信息自决权、隐私权等民事权益的系统

性侵犯ꎮ反观国内ꎬ虽未出现因大模型研发阶段处理已公开个人信息造成信息主体权益损害的直观案

--

∗收稿日期:20250509

∗∗

基金项目:本文是2019年国家社会科学基金项目“民法典编纂视野下的民法拟制条款研究”(项目编号:19CFX057)、2022年教

育部哲学社会科学研究后期资助项目“法律行为的罗马私法基础研究”(项目编号:22JHQ071)的阶段性成果ꎮ

作者简介:罗世杰ꎬ男ꎬ重庆大学法学院博士研究生ꎬ研究方向为民商法、数据法ꎮ

①2024年6月ꎬMeta公司因其在未征得信息主体同意的情况下使用已公开个人信息训练模型ꎬ在欧盟遭到多起投诉ꎮ参见刘昕炜

«Meta在欧盟遭11起投诉ꎬ因滥用个人数据训练AI大模型»ꎬ网址为“https://jiweipreview.laoyaoba.com/n/906601”ꎬ最后访问时间为

2024年8月15日ꎮ

60

罗世杰:人工智能大模型训练中已公开个人信息的合理保护

例ꎬ但已有大模型使用者因违法处理已公开人脸信息而承担侵权责任的司法案例ꎮ在我国对已公开

个人信息进行一定程度保护的背景下ꎬ随着大模型迅猛发展ꎬ如何平衡技术发展与信息保护是一个值

得深入探讨的问题ꎮ

根据«生成式人工智能服务管理暂行办法»(以下简称«服务办法»)第七条规定

文档评论(0)

1亿VIP精品文档

相关文档