信息编码与加密实验一指导书.docVIP

  1. 1、本文档共4页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信息编码与加密实验一指导书

《信息编码与加密》 实验指导书 实验一 霍夫曼编码中信息熵及编码效率的实验 一、 实验目的 1. 掌握霍夫曼编码中信息熵的定义、性质和计算; 2. 掌握霍夫曼编码中平均码字长度的定义和计算; 3. 掌握霍夫曼编码中编码效率的定义和计算; 4. 正确使用C语言实现霍夫曼编码中信息熵、平均码长和编码效率的求取。 二、 实验设备 PC机。 三、实验内容 1. 熟练列出霍夫曼编码中信息熵、平均码长和编码效率各自的计算公式; 2. 正确使用C语言实现计算霍夫曼编码中信息熵、平均码长和编码效率的程序,并在Visual C++环境中验证。 四、实验要求 按照实验内容和实验步骤完成实验内容,课后完成实验报告。 五、 实验原理 1. 霍夫曼编码的基本原理 按照概率大小顺序排列信源符号,并设法按逆顺序分配码字字长,使编码的码字为可辨识的。 2. 平均码长:L=∑p(si)*li (单位为:码符号/信源符号) 其中,p(si)为信源si在q个信源中出现的概率,li为信源si的二进制霍夫曼编码。 3. 信息熵:H(S)=- ∑p(si) *log2 p(si) (单位为:比特/信源符号) 其中,p(si)为信源si在q个信源中出现的概率。 4. 编码效率:η= H(S)/ L 其中,H(S)为信息熵,L为平均码长。 六、 实验步骤: 1. Huffman编码示例如下图: 2. 根据Huffman编码的例子,用C语言完成计算霍夫曼编码中信息熵的程序的编写,并在Visual C++环境中验证; 3. 根据Huffman编码的例子,用C语言完成计算霍夫曼编码中平均码长的程序的编写,并在Visual C++环境中验证; 4. 根据Huffman编码的例子,用C语言完成计算霍夫曼编码中编码效率的程序的编写,并在Visual C++环境中验证; 七、实验参考程序 见Huffman_Para.c程序。 八、实验思考 1. 霍夫曼编码是否是最佳码? 2. 霍夫曼编码中各信源符号的码字的长度与其出现概率之间有何关系? 九、实验报告要求及格式 实验报告应在整理与计算实验数据记录的基础上写出。不同的实验类型,要求的实验报告的内容也不同。但每份实验报告都应有如下的报头: 信息编码与加密实验报告 姓名 班级 实验组别 同组者 实验日期 指导教师 实验名称 实验报告的主要内容应包括: ①实验目的; ②实验内容; ③经过整理的数据及计算结果(列成表格); ④结论与讨论 注意:实验报告要求字迹清楚,数据明了,内容齐全。 4 信源符号 S1 S2 S3 S4 S5 0.05 概率 0.15 0.2 0.2 0.4 0.2 0.2 0.2 0.4 0.2 信源缩减过程 0.4 0.4 0.4 0.6 010 11 10 00 011 编码 3 2 2 2 3 码长 00 10 11 010 011 10 11 01 00 01 00 1 1 0

您可能关注的文档

文档评论(0)

baoyue + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档