1.5节信息及其度量.pdfVIP

  1. 1、本文档共13页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

南京邮电大学

通信原理慕课

信息及其度量:10分钟

信息(Information)(即信息量)和消息(Message)的区

信息与消息相似,但比消息更具有普遍性。消息是指

某个事件(event)发生了,消息中有效的内容是信息量。

•信息和消息,这个定义是个解释性的,有缺陷,不完备。

•一个扯皮的例子:曾经听过同学评论,这个老师讲课信息

量大,那个老师没有信息,全是废话。到底信息是多是少,

必须科学的定义。

•信息必须量化才能上升为科学。引用恩格斯语。“一门学

科只有当它用数学表示的时候,才能被最后称为科学。”

•美国科学家香农(Shannon)的在1948年发表的论文奠定了

信息论的基础。

•Shannon题为“通信的数学理论”的学术论文,这篇划时

代论文的问世,宣告了信息论的诞生。被称为现代信息理

论的鼻祖。

事件、消息和信息量的关系

•人们早就发现,一个事件的信息量与发生该时间

的概率成反比,即,有I~1/P。下面举几个例子:

•例1:结婚的大学生信息量大。设想我们叫来一个

同学,告诉他班上有一个同学年龄是20岁,他可

能要生气了,这种事情没有信息量,同学都是20

左右的人。而我曾经…

•例2:西方媒体的追求—大信息量。一个有趣的观

察:人咬狗,狗咬人,哪个信息量大?

•为了信息量的可加,才取对数:因为概率是乘性

的,取对数后变为加性。

香农创立信息论(1948年)

不但研究了信息论,而且研究了信道容量。

人们早就发现了一个事实:消息中所含有的信息量(用

算子I来表示)与该消息出现的概率(用P(x)来表示)有密切

的关系:

IIPx



1.信息量与该消息出现的概率P(x)成反比关系。

2.信息量必须可加可减,如图普通的量一样。

例如:我们买一斤糖,可以先买三斤,在减去一斤,等

于一斤。

3.但是概率的运算是乘和除的运算,学过概率和排列组

合的同学都明白这一点。所以我们必须化乘与除为加与减

的运算。

多个互相独立事件所构成的消息所含的信息

量等于各独立事件所含的信息量的和,即

IPXPXIPXIPX



1212

对数函数可以满足这些要求,即

Ilog1PXlogPX

aa

顺利地化乘除为加减运算。

信息量的单位

Ilog1PXlogPX

aa

它取决于对数底a的确定。如果a=2,则信息

量的单位为比特(bit);如果a=e,则信息量的单

位为奈特(nat);若a=10,则信息量的单位称为十

进制单位或叫哈特莱。

通信中最广泛使用的单位是bit。

1)解释这个原因?

原因在于数字通信的本质都是二进制的,计算机的存贮器、包括文件都是二

进制的。这正如计算机本质上只认识0和1两个数,可以说是目不识丁。但是通过

编码就能反映大千世界。

多进制只是手段。为了达到提高频带利用率的目的或其它目的。

2)解释英语中的比特(bit)和位(bit)为什么是一个词?

在中

文档评论(0)

爱因斯坦 + 关注
实名认证
文档贡献者

我爱达芬奇

1亿VIP精品文档

相关文档