生成式人工智能时代情报安全分层治理机制研究.pdfVIP

  • 0
  • 0
  • 约2.59万字
  • 约 13页
  • 2026-01-22 发布于福建
  • 举报

生成式人工智能时代情报安全分层治理机制研究.pdf

2025

年第

3

期华北电力大学学报(社会科学版)No.3

2025

DOI:

10.14092/11-3956/c.2025.03.009

生成式人工智能时代情报安全分层

治理机制研究

陈俊秀,徐玉琴

(福州大学法学院,

福建

福州

350108)

摘要:以ChatGPT、Sora等为代表的生成式人工智能模型具备强大的内容理解与

创生能力,将在诸多应用场景中赋能情报生产和利用,并助推情报范式的变革。囿于生

成式人工智能技术缺陷引发的算法安全与数据安全隐患、人工智能客体性式微导致的主

体危机与信任危机、制度规范漏洞造成的个人信息保护与责任认定失衡等问题,科技情

报、军事情报、金融情报及公安情报等国家关键情报领域正面临严峻安全挑战。构建

“技术-伦理-制度”的分层治理体系,对创新国家安全情报工作治理范式具有现实意义。

技术层面,应加强自主技术研发并提升风险防范能力,优化技术模型与情报系统安全;

伦理层面,应提高情报人员主体意识并强化人机协作机制,降低情报研判与决策风险;

制度层面,应完善智能情报制度建设并明确相关主体义务与责任,提高情报监管与规制

能力。

关键词:ChatGPT;生成式人工智能;情报安全;智能情报;分层治理

中图分类号:D035.31文献标识码:A文章编号:1008-2603(2025)03-0090-13

近来,以ChatGPT、Sora为代表的生成式人工智能席卷全球,标志着人工智能技术发展进入新

纪元。作为人工智能时代的一个现象级应用,生成式人工智能具备大规模语言理解、创造性内容

生成、自动化内容生产、资料与数据扩充、转移学习等能力,这些能力在信息资源管理领域尤其是

[1]

情报领域将发挥巨大的作用。一方面,生成式人工智能赋能情报生产和利用,助推情报范式的变

革,情报产业持续智能化发展;另一方面,基于大模型和深度学习的生成式人工智能亦会面临技术

缺陷和伦理困境,因无法辨别生成情报内容的真伪性、合法性而危害情报安全。情报学的目标任

[2]

务是促进人类认知过程从数据到智慧的转化,情报产业不可避免会在社会不断智慧化的进程中

卷入生成式人工智能时代的浪潮。在这一背景下,深入探讨新一代生成式人工智能与情报产业的

交叉融合及赋能驱动,探索分层治理机制以预防并疏解生成式人工智能对情报安全的冲击与威胁,

收稿日期:2024−11−25

基金项目:国家社会科学基金重点项目“刑法的立体分析与关系刑法学研究”(19AFX007);福建省社科规划项目

“网络犯罪扩张的类型化规制研究”(FJ2021BF015)。

作者简介:

陈俊秀,男,福州大学法学院副教授,中国社会科学院法学研究所暨贵州省社会科学院联合培养博士

后,研究方向:刑法学;

徐玉琴,女,福州大学法学院硕士研究生,福州大学国际法研究所助理研究员,研

究方向:刑法学。

·90·

陈俊秀

等:生成式人工智能时代情报安全分层治理机制研究

对人工智能时代下的情报持续健康发展具有重要意义。

一、生成式人工智能赋能情报应用

人类生活数字化和智能化程度与日俱增,服务于人类更高的智能化需求显然成为人工智能时

[3]

代情报的发展方向。作为以协调人类活动为目的的知识信息,

情报必然随之被赋予新的时代属

性。在情报收集、情报分析、情报服务以及决策制定等情报应用场景中,受益于更加广泛

文档评论(0)

1亿VIP精品文档

相关文档