1.事件X的信息量(自信息)
()=−log(())定义为概率分布的对数的相反数。一个随机产生的事件X所包含的
自信息数量,只与事件发生的几率相关。事件发生的几率越低,在事件真的发生时,接收到
的信息中,包含的自信息越大【不可能性大】。
概率大,出现机会多,不确定性小;反之就大。
()=(())
如果P()=1,那么I()=0。如果P()1,那么I()0。
根据定义,自信息的量度是非负的而且是可加的。
1.事件X的信息量(自信息)
()=−log(())定义为概率分布的对数的相反数。一个随机产生的事件X所包含的
自信息数量,只与事件发生的几率相关。事件发生的几率越低,在事件真的发生时,接收到
的信息中,包含的自信息越大【不可能性大】。
概率大,出现机会多,不确定性小;反之就大。
()=(())
如果P()=1,那么I()=0。如果P()1,那么I()0。
根据定义,自信息的量度是非负的而且是可加的。
文档评论(0)