信息论导论-第3章_2013讲述.pptVIP

  • 11
  • 0
  • 约7.79千字
  • 约 66页
  • 2016-12-28 发布于湖北
  • 举报
* 1 0 ②为概率最小的符号元分配一个码元1,概率次小的符号元分配一个码元0; 符号元 概率 x1 0.5 x2 x3 x4 0.3 0.15 0.05 ③将概率最小的两个符号元合并成一个新的符号元,用两者概率之和作为该新符号元的概率; 0.2 x′3 四、霍夫曼(Huffman)编码 * 重复以上三个步骤,直到最后合并出一个以1为概率的符号元,结束编码。 符号元 概率 x1 0.5 x2 x′3 0.3 0.2 1 0 0.5 x′2 符号元 概率 x1 0.5 x′2 0.5 1 0 1 x′1 四、霍夫曼(Huffman)编码 * 码字 码长 符号元 概率 x1 0.5 x2 x3 x4 0.3 0.15 0.05 0.2 0.5 1 1 1 1 0 0 0 0 10 110 111 1 2 3 3 显然,所编霍夫曼码构成二元码树,为异前置码。 四、霍夫曼(Huffman)编码—整个过程 * 四、霍夫曼(Huffman)编码 * 例2,分别对下列单符号离散信源和该信源的二次扩展信源 编二进制霍夫曼码,并计算其编码效率。 解:⑴对单符号离散信源编码 符号元 概率 x1 0.6 x2 x3 0.3 0.1 0.4 1 0 1 1 0 码字 码长 0 10 11 1 2 2 四、霍夫曼(Huffman)编码 * 四、霍夫曼(Huffman)编码 * ⑵对二次扩展信源编码 将符号元

文档评论(0)

1亿VIP精品文档

相关文档