清华大学多媒体27.pptxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
4.1.2 多媒体数据压缩的可能性1.空间冗余例: 图像中的“A”是一个规则物体。 光的亮度、饱和度及颜色都一样, 因此,数据A有很大的冗余。A2.时间冗余例: 序列图像。F2F1AA3.信息熵冗余信息量: 指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。信息熵:指一团数据所带的信息量,平均信息量就是信息熵(entropy)。 例如:从64个数中选出某一个数。可先问“是否大于32?”消除半数的可能,这样只要6次就可选出某数。 351.大于/小于 32?2.大于/小于 32+16=48?3.大于/小于 48-8=40?4.大于/小于 40-4=36?5.大于/小于 36-2=34?6.大于/小于 34+1=35大小小小大等631.大于/小于 32?2.大于/小于 32+16=48?3.大于/小于 48+8=56?4.大于/小于 56+4=60?5.大于/小于 60+2=62?6.大于/小于 62+1=63大大大大大等 这是因为每提问一次都会得到1比特的信息量。因此,在64个数中选定某一数所需的信息量是 log2 64=6(bits)信息量: 指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。 设从N个数中选任意一个数X的概率为 P(x),假定选定任意一个数的概率都相等,P(x)= 1/N,因此定义信息量 I(x) =log2N = -log2(1/N) = -log2P(x) =I[P(x)]信息量: 指从N个相等的可能事件中选出一个事件所需要的信息度量和含量。 从64个数中选任意一个数X的信息量 I(x) =log264 = 6 如果将信源所有可能事件的信息量进行平均,就得到了信息熵(entropy)。熵就是平均信息量。信息熵:指一团数据所带的信息量,平均信息量就是信息熵(entropy)。 信息源的符号集为 Xj (j=1,2,3……..N) 设X出现的概率为P(xj),则 信息源X的熵为 为使单位数据量d接近或等于E(即信息熵),应设公式 其中b(yj)是j已分配给码元素yj的比特数,理论状态下应取 b(yj)= -log2Pj Pj为Yj发生的概率。例如:ASCII码用7bit,128种 A=31H B=32H实际应用中很难预估出(P0…..PK-1)因此我们取 b(Y0)= b(Y1)……=b 26个英文字母 b(Y0)= b(Y1)……= b(Y26)=74.结构冗余图像有非常强的纹理结构。如草席图结构上存在冗余。5.知识冗余图像的理解与某些基础知识有关。例:人脸的图像有同样的结构:嘴的上方有鼻子,鼻子上方有眼睛,鼻子在中线上…… 6.视觉冗余视觉冗余是非均匀、非线性的。例:人类视觉分辨率为2 ,但常用2就是数据冗余。5-687.其他冗余图像空白的非定长性。

文档评论(0)

118books + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档