网站大量收购独家精品文档,联系QQ:2885784924

算术编码算法及其应用 毕业论文.doc

  1. 1、本文档共62页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
题目: 算术编码算法及其应用 学 院    信息科学与工程学院   专 业     电子信息工程   年 级      2009级     学 号     0915212003     姓 名          指导老师         2013年05月 摘 要 关键词:MATLAB仿真 Simulation using Visual C++ software,application of adaptive arithmetic coding for image compression,and verifies the feasibility of adaptive arithmetic coding image compression. 1.1 算术编码研究的意义及目的 1 1.2 算术编码算法的发展历程 1 1.3 算术编码国内外研究现状和发展趋势 2 1.4 毕业设计的内容 3 第2章 算术编码算法 5 2.1 信息冗余和信息熵的概念 5 2.2 算术编码算法基本原理 5 2.3 算术编码的编码过程 6 2.4 算术编码的特点 8 第3章 基于算术编码的MATLAB实现 9 3.1 MATLAB7.1仿真程序实现 9 3.1.1 运行环境说明 9 3.1.2 MATLAB7.1的简介 9 3.2 基于算术编码算法的MATLAB仿真 10 3.3 二元序列算术编码算法的MATLAB实现 13 第4章 基于算术编码压缩的应用 15 4.1 数据压缩 17 4.2 基于改进的算术编码算法的应用 17 4.2.1 WNC算法算术编码 17 4.2.2 基于算术编码算法的数据压缩MATLAB实现 18 第5章 自适应算术编码的图像压缩 21 5.1 图像压缩 21 5.2 自适应算术编码的图像压缩 21 5.2.1 自适应算术编码 21 5.2.2 程序运行结果显示: 22 5.3 图像数据压缩的意义 24 结论与展望 25 参 考 文 献 27 致 谢 29 附录A 源程序 31 附录B 外文参考文献 45 绪 论 1.1 算术编码研究的意义及目的 不论是活动图像还是静止图像,采用算术编码得到的码流都比用编码得到的码流要短,编码效率高。但是到目前为止,算术编码还没有完全取代编码。在许多图像压缩编码标准里,算术编码仅是一个选项。这除了知识产权方面的原因外,算术编码复杂度较高,不论是软件还是硬件实现起来都比较困难是一个主要因素。可以预见,随着超大规模集成电路技术的发展,高速高性能处理器的大量涌现,复杂度较高的算法也有可能实时实现。另一方面,快速的算术编码算法也不断被发现提出,比如IBM公司的Qcoder,Paul.G.Howard等提出的准算术编码器等。这些快速算法以损失一定的编码效率为代价,采用近似的方法,加快了编码速度。此外,更加有效的概率估计模型的提出也会进一步提高算术编码的效率。随着以上几方面的的进展,算术编码在图像压缩编码内的应用将会越来越广,它比著名的Huffman编码效率提高10%左右最终必将取代编码方法。所以,研究算术编码以更好的利用它是非常必要的。 在信息论中,信息冗余是传输消息所用的数目与消息中所包含的实际信息的数据位的数目的差值。是一种用来消除不需要的冗余的方法,校验是在经过有限信道容量的噪声信道中通信,为了进行错误校正而增加冗余的方法。1948 年Shannon“通信的数学理论( A Mathematical Theory of Communication )”任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。 Shannon 借鉴了热力学的概念,把信息中排除了冗余后的平均信息量称为“信息熵”,并给出了计算信息熵的数学表达式H(x)=E[I()]=E[ ]= -(i=1,2,..n) (2.1.1) 其中,x表示随机变量,与之相对应的是所有可能输出的集合,定义为符号集,随机变量的输出用x表示。P(x)表示输出概率函数。变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大。Shannon的“无噪生信源编码定理”中第一次得到阐述。这个定理的本质是:随机过程的熵率提供了对它的每一个输出进行编码所花费的平均位数的下界,而且当编码方案的复杂度允许无限制增长时,可以任意逼近这个下界。基于这

您可能关注的文档

文档评论(0)

绿风 + 关注
实名认证
内容提供者

教师资格证持证人

该用户很懒,什么也没介绍

领域认证该用户于2024年11月27日上传了教师资格证

1亿VIP精品文档

相关文档