生成式人工智能背景下个人信息的刑法规制困境与归责出路.pdfVIP

  • 1
  • 0
  • 约2.32万字
  • 约 13页
  • 2026-01-21 发布于福建
  • 举报

生成式人工智能背景下个人信息的刑法规制困境与归责出路.pdf

华东政法大学学报2025年第6期

生成式人工智能背景下个人信息的

刑法规制困境与归责出路

李川*

目次

一、问题的提出

二、生成式人工智能背景下个人信息的刑法规制困境

三、基于生成式人工智能特质的个人信息刑法规制模式转型

四、场景治理模式下个人信息刑法归责的路径展开

五、余论

摘要生成式人工智能大规模处理个人信息所引发的侵害个人信息的新型风险,有待刑法有

效规制。然而,生成式人工智能的特质在认定个人信息犯罪时存在行为区分定性、主体归责分配、前置

法违反认定、对象范围边界、因果关系判断等多方面难题,这些难题引发了刑法规制困境。追溯困境原因

可以发现,刑法个人信息犯罪设立于生成式人工智能产生之前,基于刑法先行的特点,形成了个人信息

有限赋权的规制模式,该模式难以适应生成式人工智能场景化处理个人信息的定制式、一体式、关联式

特征,从而造成规制难题。因此个人信息刑法规制应根据生成式人工智能的特质转型为场景治理模式,

相应确立危险现实化、信息类型化、结合识别目标、规范因果与义务违反结合的归责路径与认定基准。

关键词生成式人工智能个人信息侵犯公民个人信息罪场景治理

一、问题的提出

以DeepSeek、ChatGPT为代表的通用型生成式人工智能以多模态、具身化的强大内容生成能力

引发互联网的新一轮科技革命,指数级提升网络社会的集成化与数智化水平。然而生成式人工智能

在飞速演进与广泛应用的同时,带来大规模侵害个人信息的新型危险。例如,ChatGPT自发布以来,

多次出现未曾预料的个人信息泄露与滥用问题,既有语料训练阶段个人信息的不当获取,也有用户互

*李川,东南大学法学院教授、东南大学人权研究院研究人员,法学博士。本文系2025年度国家社科基金重点项目“生成式人

工智能安全发展的刑法立体保障体系研究”(项目号25AFX015)的阶段性成果。

22

李川生成式人工智能背景下个人信息的刑法规制困境与归责出路

〔1〕

动阶段个人数据的随机泄露。为此,其曾遭到意大利等国家的临时封禁调查,所属公司也多次道歉

整改。〔2〕可见这种生成式人工智能带来的个人信息侵害危险并不只是偶发现象或未来可能,而是已

经成为现实大规模存在的信息安全挑战。

就本义而言,生成式人工智能就是以内容生成为特征的人工智能技术应用。就此定义而言,以

DeepSeek为代表的通用型人工智能已经是生成式人工智能发展的第三代形式。在此之前,生成式人

工智能经历了初代机器学习模式与第二代深度学习模式的迭代演化。〔3〕因此,在通用型人工智能出

现之前,具备文本、图片、音视频等内容生成能力的生成式人工智能技术早已在商业和生产领域得到

广泛部署与应用。早期应用中已出现AI换脸、AI撞号等侵犯个人信息的诸多问题。〔4〕而通用型人

工智能的出现,以其前所未有的算法能力和算力规模,使这些问题进一步复杂化和严重化,诱发了对

个人信息的新型全链条侵害风险,从而全面凸显了生成式人工智能带来的个人信息保护危机。

刑法作为社会安全的底线保护规范,需应对数字技术变化带来的安全保护挑战。就个人信息领

域而言,虽然刑法早已形成了以侵犯公民个人信息罪为核心的个人信息专门保护范式,却因对人工智

能新技术的适配不足,难以有效遏制生成式人工智能背景下的侵犯个人信息风险。生成式人工智能

的全面部署,会引发愈演愈烈的全局性个人信息保护困境。无论从解决个人信息保护的当前问题还

是实现未来保障的意义上,都必须全面检视当前生成式人工智能场景下个人信息刑法规制困境的真

正所在,并根据生成式人工智能处理个人信息的新型特征更新有效归责路径,在个人信息保护领域真

正实现刑法意义上的“良法善治”。

二、生成式人工智能背景下个人信息的刑法规制困境

无论是部署前的语料训练还是应用后的内容生成,生成式人工智能都需要大量收集和处理个人

信息,以便

文档评论(0)

1亿VIP精品文档

相关文档