第5讲 多媒体认证技术.ppt

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
* * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * * DIP-LAB/DLUT * 图像修改检测 * 如果该强度K大于某个闽值,说明图像很可能经过了JPEG压缩处理,否则认为图像没被压缩. 图像修改检测 * 对于某一数字图像的篡改,其一般的处理过程是:首先把图像加载到一个图像编辑软件,而后对图像的某些区域内容进行篡改,最后再对篡改后的图像进行重新压缩。 如果原始图像与篡改后图像都以JPEG格式存储,那么篡改后的图像将经过了两次JPEG压缩处理,类似的情况也会在MPEG视频等媒体数据篡改时出现。因此对媒体数据重压缩操作的检测是被动认证中的另一个重要的问题。 图像修改检测 * Fu等人在论文[56]中提出利用JPEG图像DCT系数首位数字的统计规律来估计图像在JPEG压缩时所使用的量化表及检测图像是否经过二次JPEG压缩。作者指出仅经过一次JPEG压缩的原始图像,其DCT系数上的首位数字近似符合Benfords Law的推广形式. [56] D.-D. Fu, Y.-Q. Shi, and W. Su. A generalized benfords law for jpeg coefficients and its applications in image forensics. In Proc. of SPIE Electronic Imaging, Security Steganography and Watermarking of Multimedia Contents, volume 6505, page 65051L, San Jose, CA, USA, Jan. 28-Feb. 1 2007. 图像修改检测 * 此外,骆伟琪等人在论文[58]中提出了一种检测JPEG图像合成中常出现的“移位—重压缩”操作,考虑的问题如下: [58] W.-Q. Luo, Z.-H. Qu, J.-W. Huang, and G.-P. Qiu. A novel method for detecting cropped and recompressed image block. In Proc. of IEEE International Conference on Acoustics, Speech and Signal Processing, volume 2, pages II-217-II-220, Honolulu, Hawaii, USA, Apr. 15-20 2007. * JPEG系统是基于分块压缩的。8x8规则排列的块效应(Block Artifacts 是JPEG图像中一种固有的性质。如果在拼接过程中,前后两次JPEG压缩所产生块效应的位置发生不一致时,合成后JPEG图像的这种规则分布的块效应性质将会或多或少地被破坏。 论文[58]中提出了一个块效应特征矩阵((BALM : Block Ar-tifacts Characteristics Matrix)以检测这种规则分块特性被破坏的程度。经研究发现:对于原始的JPEG图像块,其BACM会呈现十分对称的性质;而当JPEG图像块被“移位一重压缩”后,这种对称的性质就会减弱。 图像修改检测 * 区域复制与图像拼接检测 图像修改检测 * 区域复制检测 Fridrich等人在[61]中分析并利用DCT变换的性质,其主要思想是先把图像分解为16 x 16的小块,并构造特定的量化表对其进行量化操作得到各块的鲁棒表示;而后比较图像中各分块的特征并从中挑选出篡改块对。但是,论文中并没有对所选特征的鲁棒性作分析,实验数据也不够充分。Farid和Popescu则利用了主分量分析(PCA: Principal Components Analysis)的方法[62]。其主要思想如下:首先将图像分块,利用PCA技术对各分块进行降维并抽取块的鲁棒特征;而后将所有块的特征进行字典排序;再根据排序后的各块特征先后次序关系寻找出所有相似的图像块对,最后定位出篡改区域。 图像修改检测 * 拼接篡改检测 从算法所采用的特性看,基本上都利用了图像中的高阶统计量作为分类的主要特征。如Farid教授在中利用小波系数的高阶统计矩特征; Bicoherence是归一化的bispectrum,Ng等人把Bicoherence扩展到了图像的拼接检测[69]上,利用SVM分类器对提取的Bicoherence特征进行分

文档评论(0)

xingyuxiaxiang + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档