多媒体数据压缩研讨.ppt

多媒体数据压缩研讨

在这7个结点还没有产生父结点,在其中找出两个具有最小概率的结点,把它们放到同一父结点的两个子结点上;并在其父结点上标出子结点的概率之和; 继续这样的合并,每一步都将两个节点合并到一个父结点之下。对于两个概率相同的可以随意挑选一个。 * * 样本信源的Huffman编码 a1 a2 a3 a4 a5 a6 a7 a8 信源字母 概率 0.40 0.15 0.15 0.10 0.10 0.05 0.04 0.01 码字 0 100 110 111 1010 10110 101110 101111 0 0 0 0 0 0 1 1 1 1 1 1 0 1 0.05 0.10 0.20 0.25 0.60 0.35 1.0 * * 样本信源的另一种Huffman编码 a1 a2 a3 a4 a5 a6 a7 a8 信源字母 概率 0.40 0.15 0.15 0.10 0.10 0.05 0.04 0.01 码字 0 100 110 1010 1011 1110 11110 11111 0 0 0 0 0 0 1 1 1 1 1 1 0 1 0.05 0.10 0.25 0.20 0.60 0.35 1.0 * * 定理 在变字长编码中,对于出现概率较大的信息符号编以短字长的码,对于出现概率小的信息符号编以长字长的码; 如果码字长度严格按照符号概率的大小的相反顺序排列,则平均码字长度一定小于按照任何其他符号排列方式得到的码字长度。 * * 定理证明 设最佳排列方式的码字平均长度为,则有 N平均=n1p(a1)+ n2p(a2) +… nip(ai) + … + nmp(am) 式中, p(ai) 为信源符号ai出现的概率,ni是符号ai的编码长度。规定 p(ai) ≥p(as) , ni≤ns, i=1,2, …,m, s=1,2, …,m。 * * 如果将ai的码字与as的码字互换,其余码字不变,经这样的互换后,平均码字长度变成N平均ˊ,即 N平均ˊ= N平均+[nsp(ai) + nip(as)] - [nip(ai) + nsp(as)] = N平均+(ns - ni )[p(ai) - p(as)] ∵ ns ≥ ni , p(ai) ≥ p(as) ∴ N平均ˊ ≥ N平均 即N平均是最短的。证毕。 * * Huffman编码的具体步骤 a1 a2 a3 a4 a5 a6 a7 信源字母 概率 0.35 0.20 0.15 0.10 0.10 0.06 0.04 码字 1.0 0 1 0 .10 0 0 .20 1 0 1 0 .25 0 1 0 .45 0 1 0 .55 0 1 00 01 100 101 110 1110 1111 * * 码字的平均码长的计算 L平均=p1l1+p2l2+…+pmlm = (0.35+0.20)×2 +(0.15+0.1+0.1)×3 +(0.06+0.04) ×4 = 2.55bits/pel * * 熵的计算 H(X) = -∑ P(xj) log2P(xj) = -[0.35× log20.35+ 0.20× log20.20+ 0.15× log20.15+ (0.10× log20.10) ×2 + 0.06× log20.06+ 0.04× log20.04] = 2.13bits/pel * * 哈夫曼编码的特点 ①哈夫曼方法构造出来的码不是唯一的 。 原因有二: 在给两个分支赋值时 , 可以是左支 ( 或上支 ) 为 0, 也可以是右支 ( 或下支 ) 为 0, 造成编码的不唯一。 当两个消息的概率相等时, 谁前谁后也是随机的,构造出来的码字就不是唯一的。 ②哈夫曼编码码字字长参差不齐 , 因此硬件实现起来不大方便。 * * ③哈夫曼编码对不同的信源的编码效率是不同的。 当信源概率是 2 的负幂时 , 哈夫曼码的编码效率达到 100%; 当信源概率相等时 , 其编码效率最低。 只有在概率分布很不均匀时 , 哈夫曼编码才会收到显著的效果 , 而在信源分布均匀的情况下 , 一般不使用哈夫曼编码。 * * ④对信源进行哈夫曼编码后 , 形成了一个哈夫曼编码表。解码时 , 必须参照这一哈夫编码表才能正确译码。 在信源的存储与传输过程中必须首先存储或传输这一哈夫曼编码表。在实际计算压缩效果时 , 必须考虑哈夫曼编码表占有的比特数。 * * 哈夫曼编码练习 现在有8个待编码的符号 M0,….,M7 它们的概率如下表

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档