- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
[原创]用冯向军知觉模型实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一(待续)
冯向军
2006/01/29 于 美国
(甲)
信息最终要被信息接受者所反映。这就是为什么冯向军要在WEBER-FECHNER的基础上
建立起更一般的知觉模型
deltaS = a(deltaOS/ OS) + b(deltaOS) (1)
这其中
a、b为待定常数。
OS为某种客观的刺激;
deltaS 为因客观刺激的变化而引发的感官变化;
a(deltaOS/ OS) 是因客观刺激的相对变化而引发的感官变化;
deltaOS是因客观刺激的绝对变化(或相对于某种不变的客观标准的变化)而引发的感官变化;
通过这些日子的讨论,我已逐步展示确实可以用上述模型来实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一。
(乙)
(一)
我们从WEBER-FECHNER对数律推导出广义的相对信息的一种一般形式,从冯向军的知
觉模型得到了更一般的形式.
现在再把视野稍微扩展一点。把U视为刻划与信息有关的{不确定性,复杂性,可区
分性...}的某种参数.
我们诚恳地认为,几乎所有比较流行的信息测度模式均可归于如下方程、定律、模
型
(A)
RI = log2 (U/Ub) (1-1)
(广义相对信息的一种一般形式)
(B)
REs = p1* log2(U1/Ub) + p2* log2(U2/Ub) +...+ pn* log2(Un/Ub) (2-1)
(具有单独可变门槛Ub的广义相对熵。)
REm = p1* log2(U1/Ub1) + p2* log2(U2/Ub2) +...+ pn* log2(Un/Ubn) (3-1)
(具有多种可变门槛的广义相对熵。)
(C)
WEBER-FECHNER对数律
delta S = a(deltaU/U) (4-1)
(D)
冯向军的知觉模型
delta S = a(deltaU/U) + b(deltaU) (5-1)
这其中 U为描述与信息密切相关的{不确定性,复杂性,可区分性}的某种参
数,Ub, Ub1,Ub2,...Ubn为这种参数的可控达门槛。
p1, p2, ...pn是一概率分布,
p1 + p2 +...+pn =1
(二)
现举例说明。
当 U 为 1/p, 而p为符号的概率, Ub = 1/max(p) =1,按(1-1)我们就有
RI = log2 (1/p) (1-2)
这RI就是汉明先生给出的信息的工程定义。
当 U 为 张学文玻尔兹曼状态数W,而Ub = min(W) =1, 按(1-1)我们就有
RI = log2 (W) (2-2)
这RI就是张学文广义集合的一种很好的复杂度。
当 U = 1/N, 而N为N种可能性, Ub = 1/min(N) = 1,按(1-1)我们就有
RI = log2 (N) (3-2)
这RI就是HARTLEY信息。
当 Ui = 1/pi, pi 为符号i的概率, i = 1,2, ..., n
Ub = 1/max(p) = 1, 按 (2-1)式就有
REs = -p1log2 (p1) -p2log2(p2) -...-pnlog2(pn) (4-2)
这REs就是SHANNON信息熵。
当 Ui = pi, pi 为符号i的概率, i = 1,2, ..., n
Ub = 1/n, 按 (2-1)式就有
REs = log2 (n) –[- p1log2 (p1) -p2log2(p2) -...-pnlog2(pn)] (5-2)
这REs就是于宏义先生的风险熵,我称之为聚集熵。(表面两者矛盾,实际上在不同条件下两者在某种程度上相通。)
当 Ubi = 1/pi, 而Ui =1/qi,qi是另一概率分布,i = 1,2,...,n,按 (3-1)式
就有
REm = p1log(p1/q1) +p2log(p2/q2) +...+ pklog(pk/qk) (6-2)
这REm就是Kullback-Leibler 相对熵。
当 U = 混淆概率 Q(Aj/xi), Ub= Q(Aj), 按(1-1)就有鱼罩子广义互信息
RI = I(xi, Aj) = log2(Q(Aj/xi) /Q(Aj)) (7-2)
当 U = 观控隶属域f(I),Ub = 任意指定的门槛隶属域fb,按 (1-1)就有观控互信息
GKI(xi,I) = log2( f(I/xi)/fb ) (8-2)
当pi = p(xi/zk), Ui =Qk(xi/zk), Ubi =Q(xi), 按 (3-1)就有
您可能关注的文档
最近下载
- 颅内镜下肿瘤切除手术护理配合.pptx VIP
- 在线网课学习课堂《临床伦理与科研道德(山东大学)》单元测试考核答案.docx VIP
- 最高人民法院第二巡回法庭法官会议纪要合辑(详尽版).pdf VIP
- 加气混凝土砌块技术交底.docx VIP
- 写字教学讲座.pptx VIP
- 2025年厂内叉车安全使用管理规定3篇 .pdf VIP
- 《逻辑学》(第二版) 第5章 谓词逻辑的自然演绎系统:杜国平 - 复件.ppt VIP
- 17J610-1 特种门窗(一)参考图集.docx VIP
- 小学一年级10以内加减法口算题卡10套1000道(已打印).xls VIP
- 输变电工程环境保护和水土保持全过程管控培训课件.pptx VIP
文档评论(0)