基于OpenCL的卷积神经网络在FPGA上的加速研究.docVIP

基于OpenCL的卷积神经网络在FPGA上的加速研究.doc

  1. 1、本文档共2页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

基于OpenCL的卷积神经网络在FPGA上的加速研究

随着深度学习技术的不断发展,卷积神经网络被广泛地运用到实际场景中,例如语音识别、人脸检测、自然语言处理等。尤其是在计算机视觉领域,卷积神经网络相比较于传统的机器学习算法而言,具有更好的鲁棒性和普遍适用性。

但是随着实际应用场景变得越来越复杂、应用领域也变得越来越广泛,卷积神经网络的结构也变得越来越复杂,这对硬件的计算能力的要求也越来越高。虽然现在广泛用于运行卷积神经网络的CPU和GPU能满足某些应用需求,但是在能耗要求较高的应用场景下,如移动终端、大型服务器集群等,CPU和GPU就不太适用了。

FPGA具有可配置、低能耗等优点,在FPGA上运行卷积神经网络具有广泛的应用前景。本文的研究内容就是如何在FPGA上实现并加速卷积神经网络的前向过程。

本文首先根据卷积神经网络的计算方式和结构特点分析其计算复杂度和空间复杂度,并以VGG16为例结合RooflineModel分析网络的性能瓶颈,找出潜在的优化策略。分析结果表明卷积神经网络中的计算瓶颈主要集中在卷积层的计算上,存储带宽瓶颈主要在全连接层上。

然后根据分析结果提出优化方案,对于卷积层的计算,结合Winograd最小滤波算法减少其计算复杂度;对于全连接层使用批量计算的方法减少其带宽使用;对于池化层的计算,使用Ping-PongBuffer结构来提高计算并行度从而加速计算。同时结合卷积神经网络的计算特点和FPGA的硬件结构,设计出一种流水线和并行计算结构,加速卷积神经网络的计算。

在流水线结构中将每一层的计算分解成多个小的计算单元使得各个单元之间的计算可以流水执行;在并行计算结构中,将输入的特征和卷积核Rearrange,使得多个卷积核之间的运算可以并行执行。本文使用OpenCL实现了上述优化方案,以VGG16和AlexNet为例进行了多组对照实验。

实验结果表明,与CPU和GPU相比,FPGA上卷积神经网络的计算处理速度位于两者之间,但是FPGA的能耗最低且能耗效率是CPU的56.8倍、是GPU的3.4倍。同时与其他的FPGA实现方法相比,本文中的方法达到了最大的系统吞吐量。

最后为了将理论研究与实际应用相结合,本文设计出了基于FPGA的人脸识别系统。

文档评论(0)

movie + 关注
实名认证
文档贡献者

喜欢分享的作者

1亿VIP精品文档

相关文档