基于部分二值卷积的嵌入式终端神经网络性能优化技术研究.pdfVIP

  • 4
  • 0
  • 约13.28万字
  • 约 64页
  • 2020-09-09 发布于江苏
  • 举报

基于部分二值卷积的嵌入式终端神经网络性能优化技术研究.pdf

重庆大学硕士学位论文 中文摘要 摘 要 深度卷积神经网络(Convolutional Neural Networks ,CNNs )凭借其优秀的准 确 在图像分类、目标识别等多个领域取得了巨大的成功。传统上,这些网络模 型通常部署于配有高端 GPU 的云数据中心。这种以云端为中心的应用框架可能导 致用户隐私泄露、延迟时间长等问题。在没有互联网的情况下,这些框架甚至无 法使用。因此,越来越多的研究着眼于直接在嵌入式终端上部署 CNN 网络模型。 然而,资源受限的嵌入式设备往往无法承受运行 CNNs 模型所带来的负载。为了 解决这些挑战,一些简单有效的网络模型压缩及加速方法被提出。但是,如何有 效地减少 CNNs 带来的负载依然是一个具有挑战性的问题。 为了在加速和压缩网络模型的同时依然保持较高的准确率,本文提出了一种 基于部分二值卷积的神经网络模型性能优化框架——TaijiNet 。TaijiNet 可以自动衡 量网络模型各层的冗余性和各卷积核的重要性,并据此有针对性地对网络参数进 行二值化。TaijiNet 主要由四个部分组成:PCA (主成分分析)累积能量分析、部 分二值卷积策略、逐点卷积层附加以及模型重训练。首先,TaijiNet 以一个给定的 预训练网络作为输入,根据各层的 PCA 累积能量曲线及预先设定的阈值得到各层 的二值化比例。然后,TaijiNet 使用部分二值卷积策略衡量每个卷积核的重要性, 并将原始卷积层分解为重要全精度卷积层和非重要二值卷积层。接下来,TaijiNet 对非重要二值卷积层附加逐点卷积层以帮助其更好地近似全精度状态。最后, TaijiNet 对整个网络模型进行重训练以恢复因二值化而减少的准确率。此外, TaijiNet 还提供了输入二值化的可选项以牺牲一定的准确率进一步加速模型的运行。 本文的主要贡献如下: ① 提出了部分二值卷积策略,该策略通过核分组、层重构以及通道重排三个 步骤,在不影响网络模型准确 的情况下根据卷积核重要性重构原始卷积层,从 而在提高模型可变性的同时减少量化带来的准确率损失。 ② 探索了卷积层的冗余性以及卷积核的差异性,提出了使用 PCA 累积能量 曲线衡量给定网络模型各层的冗余性;使用 L1 均值衡量各卷积核的重要性,从而 使得 TaijiNet 可以针对不同的冗余性和重要性执行差异化的量化策略。 ③ 提出了一种针对二值网络的准确率提升方法,利用逐点卷积层和缩放因子 优化二值权重对原始权重的近似,并通过类似 one-hot 的初始化方法防止逐点卷积 层的引入对原始网络的影响。 本文在 ImageNet 和 CIFAR-10 数据集上进行了实验以验证所提框架的有效性。 实验结果表明,TaijiNet 在二值权重的情况下,可以使得 AlexNet 模型获得 26 倍的 I 重庆大学硕士学位论文 中文摘要 压缩 以及57.9%的Top-1 准确率。同时,近 85.7%的浮点数乘法操作可以被转换 为比特操作。在二值权重二值输入的情况下 AlexNet 模型可以在 TX1 平台上获得 10 倍到 22 倍的加速。通过使用不同的 PCA 阈值,TaijiNet 可以牺牲一定的性能换 取准确率的提高以适应更多的使用场景。 关键字:模型压缩;卷积神经网络;二值化;PCA ;卷积核重要性

文档评论(0)

1亿VIP精品文档

相关文档