信息论导论-第3章_2013.ppt

信息论导论-第3章_2013

* 1 0 ②为概率最小的符号元分配一个码元1,概率次小的符号元分配一个码元0; 符号元 概率 x1 0.5 x2 x3 x4 0.3 0.15 0.05 ③将概率最小的两个符号元合并成一个新的符号元,用两者概率之和作为该新符号元的概率; 0.2 x′3 四、霍夫曼(Huffman)编码 * 重复以上三个步骤,直到最后合并出一个以1为概率的符号元,结束编码。 符号元 概率 x1 0.5 x2 x′3 0.3 0.2 1 0 0.5 x′2 符号元 概率 x1 0.5 x′2 0.5 1 0 1 x′1 四、霍夫曼(Huffman)编码 * 码字 码长 符号元 概率 x1 0.5 x2 x3 x4 0.3 0.15 0.05 0.2 0.5 1 1 1 1 0 0 0 0 10 110 111 1 2 3 3 显然,所编霍夫曼码构成二元码树,为异前置码。 四、霍夫曼(Huffman)编码—整个过程 * 四、霍夫曼(Huffman)编码 * 例2,分别对下列单符号离散信源和该信源的二次扩展信源 编二进制霍夫曼码,并计算其编码效率。 解:⑴对单符号离散信源编码 符号元 概率 x1 0.6 x2 x3 0.3 0.1 0.4 1 0 1 1 0 码字 码长 0 10 11 1 2 2 四、霍夫曼(Huffman)编码 * 四、霍夫曼(Huffman)编码 * ⑵对二次扩展信源编码 将符号元

文档评论(0)

1亿VIP精品文档

相关文档