AI大模型安全分级指南.docxVIP

  • 5
  • 0
  • 约7.97千字
  • 约 10页
  • 2026-03-17 发布于广东
  • 举报

AI大模型安全分级指南

前言

随着人工智能技术的飞速迭代,AI大模型(尤其是生成式AI模型、多模态大模型)已广泛应用于政务服务、医疗健康、金融科技、传媒娱乐等多个领域,Seedance2.0等AI视频生成模型的出现,更是推动了技术应用的范式变革,但同时也带来了虚假信息传播、数据泄露、算法偏见、恶意攻击等多重安全风险,对个人权益、社会秩序乃至国家安全构成潜在威胁。

为规范AI大模型的研发、部署与应用,防范化解安全风险,推动AI技术安全、可控、负责任发展,结合《生成式人工智能服务管理暂行办法》《人工智能安全治理系统风险管理能力要求》等政策法规,参考世界数字技术院(WDTA)发布的《生成式人工智能应用安全测试标准》《大语言模型安全测试方法》等国际标准,由人工智能、网络安全、法律合规等领域专家联合编制本《AI大模型安全分级指南》(以下简称《指南》)。

本《指南》立足我国AI大模型发展现状,明确了AI大模型安全分级的原则、依据、标准及实施要求,构建了科学、可操作的分级体系,适用于AI大模型研发机构、部署单位、应用主体及监管部门,为各类主体开展安全管理、风险防控提供统一指引,助力打造“技管结合”的AI安全治理架构,推动AI产业健康有序发展。

一、分级总则

1.1分级原则

本《指南》遵循以下四大核心原则,确保分级科学、合理、可行,兼顾安全性与产业发展需求:

1.风险导向原则:以AI

文档评论(0)

1亿VIP精品文档

相关文档