- 1、本文档内容版权归属内容提供方,所产生的收益全部归内容提供方所有。如果您对本文有版权争议,可选择认领,认领后既往收益都归您。。
- 2、本文档由用户上传,本站不保证质量和数量令人满意,可能有诸多瑕疵,付费之前,请仔细先通过免费阅读内容等途径辨别内容交易风险。如存在严重挂羊头卖狗肉之情形,可联系本站下载客服投诉处理。
- 3、文档侵权举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
1 引言
随着大数据时代的到来以及计算机计算速度的显著提升,人工智能迎来快速发展,广泛应用于图像识别、语音识别、自然语言处理等任务。深度学习是应用最为广泛的人工智能技术之一。深度学习以深度神经网络(DNN,deep neural network)模型为核心,以数据为驱动,通过训练出具有良好表达能力的 DNN 模型对问题进行建模并解决。深度学习在人类社会各个领域都发挥了巨大作用,但同样存在巨大的安全风险。现阶段深度学习的安全研究集中于边缘端的模型推理过程,包括对抗样本[1-2]、数据投毒[3-4]、成员推断[5]、模型逆向[6-8]等方面。本文以模型逆向攻击为研究对象,模型逆向攻击是指攻击者通过
原创力文档


文档评论(0)