- 20
- 0
- 约2.94千字
- 约 5页
- 2020-10-30 发布于山东
- 举报
一、霍夫曼编码 (Huffman Codes)
最佳编码定理: 在变长编码中, 对于出现概率大的信息符号编以
短字长的码,对于出现概率小的信息符号编以长字长的码, 如果码字
长度严格按照符号出现概率大小的相反的顺序排列, 则平均码字长度
一定小于按任何其他符号顺序排列方式的平均码字长度。
霍夫曼编码已被证明具有最优变长码性质, 平均码长最短,接近熵值。
x1
x2
xm
X
pm ,
霍夫曼编码步骤:设信源
X 有 m 个符号 (消息 )
p1
p2
1. 把信源 X 中的消息按概率从大到小顺序排列,
2. 把最后两个出现概率最小的消息合并成一个消息 ,从而使信源的消息数减少,并同时再按信源符号(消息)出现的概率从大到小排列;
X o
x1o
x2o
3. 3. 重复上述 2 步骤 ,直到信源最后为
p1o
p2o
为止;
4. 将被合并的消息分别赋予 1 和 0,并对最后的两个消息也相应的赋予 1 和 0;
通过上述步骤就可构成最优变长码 (Huffman Codes) 。
例:
X
Pi
码字编码过程
x1
0.25
10
x2
0.25
01
x3
0.20
11
x4
0.15
000
x5
0.10
0100
x6
0.05
1100
则平均码长、平均信息量、编码效率、冗余度为分别为:
N
2
2
0.25
2
0.20
3
0.15
4
0.1
4
0.05
2.45
H
( 2
0.25
log 0.25
0.2
log 0.2
0.15
log 0.15
0.1 log 0.1 0.05 log 0.05)
2.42
98%
Rd
2%
二 预测编码( Predictive encoding )
在各类编码方法中, 预测编码是比较易于实现的, 如微分(差分)脉冲编码调制( DPCM )方法。在这种方法中,每一个象素灰度值,用先前扫描过的象素灰度值去减, 求出他们的差值, 此差值称为预测误差,预测误差被量化和编码与传送。 接收端再将此差值与预测值相加,重建原始图像象素信号。由于量化和传送的仅是误差信号,根据
一般扫描图像信号在空间及时间邻域内个象素的相关性, 预测误差分布更加集中,即熵值比原来图象小, 可用较少的单位象素比特率进行编码,使得图象数据得以压缩。
当输入图象信号是模拟信号时, “量化”过程中的信息损失不可
避免的。
N 1
?
Qi X N 1
X
预测器预测值
i 1
Q i
eN
X N
?
其中
应适当选择使预测误差最小,即使
X N
最小。
然后,非均匀量化此预测误差
eN ,就能产生最小均方误差的最
佳 eN ˊ,经编码后发送。接收端解码得到的
eN 加上预测值就能再现
X N
,它与原始图象的存在误差为
g N X N
X N
。
这里关键的问题是选择适当的 Qi ,使预测效果最好,即预测差
值的方差最小。
对于隔行扫描的电视图象通常有
f (x, y)
1
1
1
f ( x, y 1)
f (x 1, y)
f ( x 1, y 1)
2
4
4
或 f (x, y)
1 f ( x, y 1)
1 f (x 1, y)
1 f (x 1, y 1)
1 f (x 1, y 1)
2
4
8
8
其它预测方法有:
1. 1.
前值预测,用
f x, y 同一行中临近前面一象素预测,即
^
f
x, yf x, y 1
2. 一维预测,用同一行中前面若干象素预测;
3. 二维预测,用几行内象素预测;
4. 三维预测,利用相邻两帧图像信号的相关性预测。
三 变换编码( Transform encoding )
前面图象变换章节已经说明图象变换会使图象信号能量在空间
重新分布,其中低频成分占据能量的绝大部分, 而高频成分所占比重很小,根据统计编码的原理,能量分布集中,熵值最小,可实现平均码长最短。
变换编码的基本原理是将原来在空域描述的图象信号, 变换到另外一些正交空间中去, 用变换系数来表示原始图象, 并对变换系数进行编码。一般来说在变换域里描述要比在空域简单, 因为图象的相关性明显下降。尽管变换本身并不带来数据压缩, 但由于变换图象的能量大部分只集中于少数几个变换系数上, 采用量化和熵编码则可以有效地压缩图象的编码比特率。
根据上面的原理变换编码的一般过程如下 :
输入图象 变换 量化 编码器 -- - 译码器 逆变换 输出
常用的变换编码所使用的变换有离散余弦变换( DCT)和 沃尔什
--哈达玛变换( WHT )。
变换后图象能量更加集中, 在量化和编码时, 结合人类视觉心理因素等,采用“区域取样”或“阈值取样”等方法,保留变换系数中幅值较大的元素, 进行量化编码, 而大多数幅值小或某些特定区域的变换系数将全部当作零处理。
四 方
原创力文档

文档评论(0)