- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
信源与信息熵 信息论与编码 二知识介绍.ppt
2.2 离散信源熵和互信息量
对于特定的信源,符号的概率分布是确定的。概率的大小决定了信息量的大小。
2.2.1 自信息量
虽然符号分布的概率是确定的,但是信源每次发出的具体消息是不确定的:只有当信源发出的消息通过信道传输给接收方信宿后,才能消除不确定性从而获得信息。
事件发生的不确定性与事件发生的概率有关。事件发生的概率越小,不确定性就越大,获得的信息量就越大;而事件发生的概率越大,不确定性就越小,获得的信息量就越小。
如果消息出现的概率很大,一旦出现人们不会感到意外,所以给人的信息量就很小;对必然出现的信息(发生概率等于1的必然事件),则不存在不确定性,不具任何信息量,能带给接收者的信息量为0。
反之,信源发生的概率越小,一旦它出现必然使人感到意外,给人的信息量就越大;当消息的概率很小,即几乎不可能的消息出现了,则会给人以巨大的信息量。
所以,信息量应该是消息出现概率的递减函数。并且符合边界条件的特点。
从数学理论知对数函数就有上述特征。
复习:对数函数的基本性质
单符号离散信源的自信息量
对于发出单个符号的离散信源发出的单个消息,给出如下的(非平均)信息量/自信息量定义:
式中: p(ui) - ui发生的(先验)概率;
I(ui) - ui发生所含信息量。
自信息量的单位与所用对数底有关:
在信息论中常用的对数底是2,信息量的单位是比特(bit),即:I(ui)=-lbp(ui)(比特)。
在这里,比特是指抽象的信息量单位!!!与计算机术语中“比特” 没有关系。
若取自然对数e为底,则信息量的单位为奈特(nat),即:I(ui)=-lnp(ui)(奈特),1nat = 1.433bit ;
若以10为对数底,则信息量的单位为笛特(det),即I(ui)=-lgp(ui)(笛特), 1det=3.322bit 。
结合数学公式的推导,容易得出这三个信息量单位之间的转换关系如下:
1bit≈0.693nat≈0.301det。
例1:参见教材P16。
例2(P17):一个以等概率出现的二进制码元0和1的信源。p (ui)=1/2,可得I (ui) =1bit。所以,在信息论中,1比特信息量就是两个互不相容的等概率事件之一发生时所提供的信息量。
类似地,信源输出m位的二进制数,每个符号等概率出现,则每个符号序列提供的信息量是m个bit。P17。
例:假设一次掷两个各自均匀、互相不可区分又互不相关的骰子。如事件A、B、C分别表示:(A)仅有一个骰子是3;(B)至少有一个骰子是4;(C)骰子上点数的总和为偶数。试计算事件A、B、C发生后所提供的信息量。
解:事件A、B、C发生的概率分别为:
p(A)=nA/N=5/18
p(B)=nB/N=11/36
p(C)=nC/N=1/2
A、B、C所提供的信息量分别为:
I(A)=-log p(A)=1.8480 bit
I(B)=-log p(B)=1.7105 bit
I(C)=-log p(C)=1 bit。
信源符号的不确定度
(P17)自信息量是当信源发出的消息或符号被信宿接收到以后,信宿所获取的信息量大小。自信息量是在信源发出符号经信道传输后,接收者才能获得。自信息量是针对信源发出的某一个消息而言所得出的信息量,不同的消息对应不同的自信息量。
不确定度:是信源符号固有的,不管信源是否发出符号都客观存在。
不确定度在数值和单位上都和自信息量相同。(注意理解:相同的条件?)
当事件ui发生前,自信息量I(ui)的大小表示事件发生的不确定性大小;当事件ui发生后,其自信息量I(ui)表示该消息所能提供给接收者的信息量。
自信息量的性质
当p(ui) =1时, I(ui) =0;
当p(ui) =0时, I(ui) = ∞ ;
I(ui)是非负值;
I(ui)是p(ui)的单调递减函数;
自信息量是针对无条件概率计算的,可以在数学上进行简单的推广:将无条件概率换为条件概率或联合概率。
表面上的纯粹的数学公式的延伸,在香农信息论中实际上能够用于揭示通信或数据处理过程中更多的物理含义。
条件自信息量
定义:条件概率的对数的负值。
即:联合概率空间中,在特定条件下( yj已定),随机事件xi发生所带来的信息量。
若两个消息ui、uj出现不是独立的,而是有相互联系的,这时可引用条件概率来描述。
若将在信源消息ui(或uj)已出现的条件下,消息uj(或ui)出现的条件概率表示为Pij (或Qji),则其非平均自信息量I(Pij)([或I(Qji)])为:
I(Pij)=-logPij
或 I(Qji)
您可能关注的文档
最近下载
- 《浙江省建设工程其他费用定额》(2018版).docx
- 怎样恢复已删除的文件.doc VIP
- 2025年中国铁道橡胶垫板数据监测报告.docx
- (NEW)电子科技大学数学科学学院857概率论与数理统计历年考研真题汇编(含部分答案).pdf
- 2023-2024全国初中物理竞赛试题精选精编第05讲凸透镜成像(解析版).docx VIP
- 2001-2016年电子科技大学《601数学分析》历年考研真题汇总(含部分答案).pdf VIP
- 古典文献学第二章 文献的形成和流布.ppt VIP
- 2025年综合窗口岗位工作人员招聘考试笔试试题(附答案).docx VIP
- 纪念中国红军长征胜利89周年PPT课件.pptx VIP
- 2025年中国衬橡胶设备数据监测报告.docx
文档评论(0)