基于贝叶斯优化与小波变换的黑盒对抗攻击研究.pdfVIP

基于贝叶斯优化与小波变换的黑盒对抗攻击研究.pdf

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

摘要

对抗样本是一种能够欺骗神经网络模型做出错误判断的恶意样本,对抗样本

的存在可能对基于机器学习与深度学习的应用造成安全隐患。因此,研究对抗样

本的生成及对抗攻击,对检验与提高神经网络分类模型的鲁棒性,有着重要的现

实意义。

黑盒对抗攻击在未获悉模型内部结构的情况下,通过构建目标模型的代理模

型或者向目标模型进行查询,来指导对抗攻击。与白盒对抗攻击相比,黑盒对抗

攻击更符合现实的应用场景。然而,黑盒对抗攻击方法仍然存在着模型查询次数

较高的问题。为此,本文提出了两种降低模型查询量的黑盒对抗攻击方法——

BOBA(BayesianOptimizationBlack-boxAttack)与WTDS(Black-boxAttackbased

onWaveletTransformationandDynamicSampling)。

BOBA使用贝叶斯优化选择样本中最有效的维度进行扰动,能有效减少模型

查询量,仅扰动样本中的少数维度即可生成有效的对抗样本。论文首先给出了

BOBA方法的算法框架,然后详述了其中的关键步骤。(1)构造了一个黑盒目

标函数,将扰动位置与扰动值转化为正确分类的确定性;(2)通过几次迭代生

成有效的对抗样本,在每次迭代中通过贝叶斯优化生成一个有效扰动位置与扰动

值;(3)贝叶斯优化的具体方法是:先使用少量采样数据构造黑盒目标函数的

代理模型,然后基于代理模型使用采样函数不断地选择最有潜力的采样位置并获

取其采样值,用于更新代理模型。

WTDS通过梯度估计方法与梯度下降方法相结合,迭代地在清晰样本中添加

扰动,最终生成能够误导模型的对抗样本。WTDS使用离散小波变换分离样本的

高频分量与低频分量,仅在低频分量中添加扰动,并且在估计低频分量梯度的过

程中,动态地调整采样点数,降低生成对抗样本所需要的模型查询次数。论文给

出了WTDS的算法框架,并阐述了关键步骤。(1)使用离散小波变换分离被攻

击样本的低频分量与高频分量;(2)迭代地使用自然进化策略估计低频分量的

梯度;(3)在自然进化策略中,采用了动态采样策略增强随机性,并使用当前

的估计梯度与历史估计梯度共同指导低频分量的更新,直到生成有效的对抗样本。

最后,论文在CIFAR-10数据集和ILSVRC-2012数据集上分别测试了两种方

法,并与其他共计5种黑盒攻击方法做了实验对比。结果证明:BOBA在仅改变

图像样本的三个像素的情况下达到90%的攻击成功率,且模型查询量降低了

88%~93%;WTDS能够达到100%的攻击成功率,而且相比其他黑盒攻击方法,

在目标攻击和无目标攻击中,模型查询量大大降低,降幅达23%~84%。

关键词:黑盒对抗攻击,深度学习,贝叶斯优化,小波变换,动态采样

Abstract

Theadversarialexampleisakindofmaliciousexamplethatcanmisleadtheneural

networkmodelintomakingwrongprediction.Theexistenceoftheadversarialexample

maycausesecurityriskstotheapplicationsbasedonmachinelearninganddeep

learning.Therefore,itisofgreatpracticalsignificancetostudythegenerationof

adversarialexamplesandadversarialattacksfortestingandimprovingtherobustness

ofneuralnetworkclassificationmodel.

Withoutknowingtheinternalstructureofthemodel,theblack-boxattackcan

guidetheadversaryattackbybuildingthe

文档评论(0)

拥有快乐的你 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档