基于深度卷积神经网络的室外场景理解研究-控制理论与控制工程专业论文.docxVIP

基于深度卷积神经网络的室外场景理解研究-控制理论与控制工程专业论文.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
万方数据 万方数据 Dissertation Submitted to Hangzhou Dianzi University for the Degree of Master Research on Outdoor Scene Understanding Using Deep Convolutional Neural Networks Candidate : Wen Jun Supervisor : Professor Liu Shirong Lecturer Zhang Botao March 11th, 2016 杭州电子科技大学 学位论文原创性声明和使用授权说明 原创性声明 本人郑重声明: 所呈交的学位论文,是本人在导师的指导下,独立进行研究工作所取 得的成果。除文中已经注明引用的内容外,本论文不含任何其他个人或集体已经发表或撰写 过的作品或成果。对本文的研究做出重要贡献的个人和集体,均已在文中以明确方式标明。 申请学位论文与资料若有不实之处,本人承担一切相关责任。 论文作者签名: 日期: 年 月 日 学位论文使用授权说明 本人完全了解杭州电子科技大学关于保留和使用学位论文的规定,即:研究生在校攻 读学位期间论文工作的知识产权单位属杭州电子科技大学。本人保证毕业离校后,发表论文 或使用论文工作成果时署名单位仍然为杭州电子科技大学。学校有权保留送交论文的复印 件,允许查阅和借阅论文;学校可以公布论文的全部或部分内容,可以允许采用影印、缩印 或其它复制手段保存论文。(保密论文在解密后遵守此规定) 论文作者签名: 日期: 年 月 日 指导教师签名: 日期: 年 月 日 杭州 杭州电子科技大学硕士学位论文 摘 要 场景理解是计算机视觉和人工智能领域的研究热点,其研究成果已被广泛应用于机器人 导航、网络搜索、安防监控、医疗卫生等众多领域。场景理解的各个分支任务,如目标检测、 图像语义分割等,近年来都取得了突破性进展,但仍然存在众多不足之处。如由于目标自身 形变和外界因素干扰,通常难以获得可靠、鲁棒的特征用于场景中的动态目标分类。深度卷 积神经网络(Deep Convolutional Neural Networks, DCNN)通过端到端的特征学习,能有效实 现对场景图片的语义分类,但却难以实现对场景图片的精确语义分割。围绕上述问题,本文 的主要研究内容如下: 1)首先,提出一种基于多任务空间金字塔池化 DCNN 的动态目标分类方法。该方法首先 通过高斯混合模型提取出视频中场景动态目标物体,经图像形态学处理而获得较为准确、完 整的目标图像块。然后将获得的目标图像块送入多任务空间金字塔池化 DCNN 而实现对该目 标图像块的分类,同时获得其语义标签。实验结果表明,高层卷积特征对部分遮挡、重叠、 视角变化等具有较强的鲁棒性,多任务空间金字塔池化 DCNN 在动态目标分类任务上能取得 很高的分类精度并给出较为准确的目标语义标签。 2)其次,针对传统手工特征鲁棒性和表达能力的不足,提出一种将 DCNN 与 MeanShift 图 像分割算法相结合的室外场景语义分割方法。该方法首先通过 MeanShift 算法对场景图像进 行预分割,然后在分割后的各局部区域随机采集样本图像块并将其送入 DCNN 获得其类别概 率,最后将各局部区域的样本图像块的类别概率进行平均获得其语义标签进而实现语义分割。 关于 DCNN 卷积核大小、卷积核个数和训练数据集的扩展等因素对场景图像语义分割结果的 影响做了研究分析。与基于 SIFT 局部特征描述子的 SEVI-BOVW 方法进行对比的实验结果 表明,本方法在准确率和识别速度上均有较大提升。 3)最后,基于 DCNN,提出了一种联合物体检测与语义分割的场景理解方法,并将其与 基于 HOG (Histogram of Oriented Gradients) 纹理特征及支持向量机(Support Vector Machine, SVM)分类算法的背景物体语义分割方法相结合应用于机器人的校园导航。该场景理解方法由 Faster R-CNN 算法检测场景图片中的前景目标物体,通过 Deeplab-CRFs 模型对场景图片中的 前景目标物体进行语义预分割,最后由 GrabCut 前景提取算法将二者的检测、分割结果相结 合而实现对目标物体更精确、更完整的语义分割。实验证明,该方法能准确、全面地对目标 进行检测及语义分割,并有效用于机器人的校园导航。 关键词:DCNN,场景理解,动态目标分类,目标检测,语义分割 I ABSTRACT Scene understanding, as a challenging research hotspot, has been widely applied in many fields, s

您可能关注的文档

文档评论(0)

peili2018 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档