国家数据安全视域下大语言模型“遗忘”评估体系与监管对策.pdfVIP

  • 0
  • 0
  • 约1.85万字
  • 约 7页
  • 2026-01-26 发布于福建
  • 举报

国家数据安全视域下大语言模型“遗忘”评估体系与监管对策.pdf

理论探索TheoryExploration

国家数据安全视域下大语言模型

“遗忘”评估体系与监管对策

王骞

武汉大学国家网络安全学院,湖北武汉,430040

摘要:

在数据安全监管加强与“删除权”规定落地的背景下,大语言模型亟须具备可验证的

“机器遗忘”能力。文章系统梳理现有批量与持续遗忘技术,指出评测理想化、攻击面忽视及指

标单一导致的虚假合规风险,分析遗忘强度与模型性能的固有冲突以及持续删除引发的累积震

荡,揭示缺乏取证链、责任模糊和合规成本高等合规痛点。在此基础上,文章提出构建包含动

态暗测与深层表征分析的国家级认证体系,发展梯度留痕与表示层擦除等可追溯算法,并推动

开源标准化,辅以分级责任、正向激励与机读型删除元数据的协同治理,形成“评测—技术—政

策”闭环,实现“删除彻底、验证有效、复现便捷、过程不可逆”的模型遗忘能力,为生成式人工

智能的安全合规与可信发展奠定技术与制度基础。

关键词:

机器遗忘;大语言模型;数据安全;评测体系

EvaluationBenchmarkandRegulatoryMeasuresfor“Unlearning”

inLargeLanguageModelsfromaNationalData-SecurityPerspective

WangQian

SchoolofCyberScienceandEngineering,WuhanUniversity,WuhanHubei,430040

Abstract:Underthecontextofincreasinglystringentdata-securityregulationsandthe

implementationofprovisionsonthe“RighttobeForgotten”,largelanguagemodels(LLMs)mustbe

abletoprovethattheycantruly“forget”designatedinformation.Thispapersystematicallyreviews

currentbatchandcontinualmachineunlearningtechniques.Itidentifiescriticalchallengesincluding:

overlyidealizedevaluationbenchmarksthatoverlookattacksurfacessuchas,datadependencies,

adversarialprompts,andrepresentation-levelresidues,leadingtofalsecompliancerisks;aninherent

conflictbetweenrobustunlearningandmodelperformance,coupledwithcumulativevolatilityfrom

repeateddeletionsthatmayreactivateremovedcontent;andcompliancepainpointsstemmingfrom

thelackofaverifiabledeletionevidencechain,ambiguityinliabilityallocationacrossstakeholders,

andhighcompliance-relatedcosts.Toaddressthese,wepropose:anationalcertificationframework

in

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档