国家安全视域下的生成式人工智能新型泄密风险与法律规制.pdfVIP

  • 1
  • 0
  • 约2.1万字
  • 约 10页
  • 2026-01-21 发布于福建
  • 举报

国家安全视域下的生成式人工智能新型泄密风险与法律规制.pdf

视野HORIZON

国家安全视域下的生成式人工

智能新型泄密风险与法律规制

■文/饶宇锋

摘要

生成式人工智能技术的快速发展催生了传统安全框架难以覆盖的新型泄密风险,

对国家安全构成严峻挑战。数据层面表现为:大模型训练数据的“记忆性生成”

可能导致敏感信息复现;合成数据亦存在重新识别风险;跨境数据流动监管漏

洞引发中间衍生数据失控隐患。应用层面风险集中于:开源大模型被恶意改造

为泄密工具、下游应用接口传导漏洞,以及合法接口滥用诱导模型输出涉密信息。

当前治理体系面临技术迭代与法律规制的“科林格里奇困境”、责任分配模糊

和治理碎片化等结构性矛盾。对此,需构建动态分级分类监管框架,依据模型

参数量、应用场景和数据敏感性划分风险等级,实施差异化治理;扩展国家秘

密法律内涵,将算法关联性信息纳入保护范围,明确“逆向工程”“诱导提问”

等行为的法律定性;开发闭源专用大模型实现涉密领域隔离式治理。

基金项目信息:国家社会科学基金青年项目“总体国家安全观视野下网络侵入型侦查的法律规制研究”(编号:20CFX033)

18机器人产业|ROBOTINDUSTRY

国家安全视域下的生成式人工智能新型泄密风险与法律规制

成式人工智能大模型(如“统计性泄密”不依赖直接获取原始的敏

生ChatGPT、Deepseek)凭借其感数据,而是向模型输入精心设计的提示

强大的内容生成能力,已经深词(Prompt),诱导参数激活特定路径,

度嵌入到社会发展的各个行业,为第四次从而输出与训练数据关联的内容。例如,

工业革命提供了新动能。根据中国互联网通过输入“中国某省电力供应薄弱环节”,

络信息中心(CNNIC)发布的《生成式可能触发模型输出隐含真实电网脆弱性的

人工智能应用发展报告(2024)》统计,信息。而这些参数仅仅是传统意义上的统

截至2024年底,我国人工智能核心产业计信息。中国国家信息中心2023年监测发

规模已接近6000亿元。生成式人工智能现,在国内外暗网中涌现出WormGPT、

的应用场景不断拓展,特别是在政府政务、PoisonGPT、EvilGPT等一批恶意人工智

军事国防等涉及国家安全的关键领域,多能大模型,通过改造开源的合法大模型,

地政府已开始探索利用智慧政务AI大模以生成恶意软件代码造成数据泄露、网络

型提升政务服务效率,使用其处理公文写攻击、窃取隐私等,并自动生成诈骗文本

作、舆情分析等业务。各国军方目前也已图像,针对我国政府和军工单位进行复杂

经开始探索基于这些大模型的军事应用[1],的网络钓鱼活动[2]。这些案例都表明,生

大模型的应用提高了作战人员、武器和指成式人工智能的泄密路径已从传统的“数

挥信息系统的智能交互水平,对历史战况据存储—数据传输—数据使用”过程中发

和现实情报通过先进算法进行快速推演分生的数据直接泄露的风险,转变成通过大

析,提升打击精度和反应速度。但生成式模型中的隐含参数、多模态输出的组合关

人工智能技术的迅猛发展在释放生产力的联、大模型开源生态的全球扩散等非线性

同时,也催生出传统安全框架难以全面覆方式,

文档评论(0)

1亿VIP精品文档

相关文档