面向多视点加深度编码的视频重采样方法研究-通信与信息系统专业毕业论文.docxVIP

面向多视点加深度编码的视频重采样方法研究-通信与信息系统专业毕业论文.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
万方数据 万方数据 Dissertation Submitted to Hangzhou Dianzi University for the Degree of Master Research on Video Resampling for Multi-view plus Depth Coding Candidate: Ke Xiaolin Supervisor: Associate professor Guo Chunsheng March, 2016 杭州电子科技大学 学位论文原创性声明和使用授权说明 原创性声明 本人郑重声明: 所呈交的学位论文,是本人在导师的指导下,独立进行研究工作所取得 的成果。除文中已经注明引用的内容外,本论文不含任何其他个人或集体已经发表或撰写过 的作品或成果。对本章的研究做出重要贡献的个人和集体,均已在文中以明确方式标明。 申请学位论文与资料若有不实之处,本人承担一切相关责任。 论文作者签名: 日期: 年 月 日 学位论文使用授权说明 本人完全了解杭州电子科技大学关于保留和使用学位论文的规定,即:研究生在校攻读 学位期间论文工作的知识产权单位属杭州电子科技大学。本人保证毕业离校后,发表论文或 使用论文工作成果时署名单位仍然为杭州电子科技大学。学校有权保留送交论文的复印件, 允许查阅和借阅论文;学校可以公布论文的全部或部分内容,可以允许采用影印、缩印或其 它复制手段保存论文。(保密论文在解密后遵守此规定) 论文作者签名: 日期: 年 月 日 指导教师签名: 日期: 年 月 日 杭州 杭州电子科技大学硕士学位论文 摘 要 多视点加深度视频是一种流行的 3D 视频格式,它包括视频纹理和相关的深度图。通过 视点合成技术,可以合成多个虚拟的多视点视频。多视点视频提供了多个视角来观看空间立 体场景,这种视觉上的立体感和交互功能,使 3D 视频的应用前景充满活力。但传输多路纹 理和深度视频信号,视频存储和传输数据量大。如何高效的对多视点加深度视频进行压缩编 码,成为目前 3D 视频编码需要解决的关键问题。降低视频分辨率进行压缩编码,而在解码 端恢复原始分辨率视频,已成为一种可行的提高视频压缩效率的方法,编码端下采样减少了 视频传输数据量,达到降低编码码率的作用,在解码端需运用上采样方法恢复原始视频的分 辨率,并减少因视频重采样导致的合成视点质量的失真。本文研究采用视频重采样方法降低 编码码率和提高合成视点视频的质量,论文主要工作有如下三个方面: 第一,针对现有的 3D-HEVC 多分辨率编码方法都仅对深度图像进行下采样编码,而没 有参考 3D-HEVC 视频编码的结构,提出了一种低码率的混合分辨率视频编码方法,对基本 视点视频按原分辨率编码方法,保证基本视点视频的编解码质量,而对依赖视点视频采用降 分辨率的编码方法,进一步降低码率。提出了一种基于均值分集的中值滤波下采样方法以提 高编码效率,且基于人眼对图像的亮度信息变化的敏感度比对色度的敏感度高,提出了双滤 波器插值的上采样方法,对亮度分量采用 6 抽头滤波器进行上采样,而对色度分量使用 4 抽 头滤波器进行上采样,以减少复杂度。实验结果表明,该方法能有效降低视频编码的码率。 第二,在对深度视频重采样时,为了保护物体的边缘,对深度图下采样之前,先采用引 导滤波的方法对深度视频进行滤波预处理。提出了利用深度图的亮度分量与纹理图的色度分 量的加权值作为引导图像,对深度视频进行滤波。实验表明,该方法相比于按纹理图的色度 加权或纹理图亮度和色度加权分量作引导图像的方法,编码效率更高,视点合成质量更好。 第三,现有的基于深度图重采样方法所合成视点的物体边缘常常存在失真,本文提出了 面向视点合成的基于邻域滤波的深度重采样编码方法。深度下采样方法先把采样窗口内的像 素以平均值为阈值,分为两个像素集合,选取大于窗口内一半总像素数目的集合为采样集合, 并选择该集合定义的特征深度值与中心像素的相似性决定下采样深度值。而深度上采样方法 利用纹理图与深度图的公共边缘,对该边缘的像素点,计算每个邻域像素的强度值,该强度 值由像素之间的空间相似性、深度相似性、纹理相似性决定。选取水平、垂直、450 和 1350 四个方向的像素对,其中绝对强度之差最小的像素对作为边缘的估计方向,然后取该像素对 的平均深度值作为上采样边缘像素的值,对非边缘点,采用中值滤波对深度值进行细化。实 验结果表明,本文方法提高了编码效率和合成视点的峰值信噪比,且视频主观质量较好。 关键词:多视点加深度视频编码,图像插值,图像滤波,视频重采样,边缘保护,视点合成 I II万方数据 II 万方数据 ABSTRACT Multi-view plus depth video is a popular 3D video fo

您可能关注的文档

文档评论(0)

131****9843 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档