机器学习对抗性攻击_北京光环大数据培训.pdfVIP

  • 20
  • 0
  • 约8.09千字
  • 约 9页
  • 2019-03-13 发布于江苏
  • 举报

机器学习对抗性攻击_北京光环大数据培训.pdf

光环大数据--大数据培训人工智能培训 机器学习对抗性攻击_北京光环大数据培训 随着人工智能和机器学习技术在互联网的各个领域的广泛应用,其受攻击的 可能性,以及其是否具备强抗打击能力一直是安全界一直关注的。之前关于机器 学习模型攻击的探讨常常局限于对训练数据的污染。由于其模型经常趋向于封闭 式的部署,该手段在真实的情况中并不实际可行。在GeekPwn2016 硅谷分会场上, 来自北美工业界和学术界的顶尖安全专家们针对当前流行的图形对象识别、语音 识别的场景,为大家揭示了如何通过构造对抗性攻击数据,要么让其与源数据的 差别细微到人类无法通过感官辨识到,要么该差别对人类感知没有本质变化,而 机器学习模型可以接受并做出错误的分类决定,并且同时做了攻击演示。以下, 我们将详细介绍专家们的攻击手段。 攻击图像语音识别系统 目前人工智能和机器学习技术被广泛应用在人机交互、推荐系统、安全防护 等各个领域。具体场景包括语音、图像识别、信用评估、防止欺诈、过滤恶意邮 件、抵抗恶意代码攻击、网络攻击等等。攻击者也试图通过各种手段绕过,或直 接对机器学习模型进行攻击达到对抗目的。特别是在人机交互这一环节,随着语 音、图像作为新兴的人

文档评论(0)

1亿VIP精品文档

相关文档