[原创]冯向军知觉_1.docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
[原创]用冯向军知觉模型实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一(待续) 冯向军 2006/01/29 于 美国 (甲) 信息最终要被信息接受者所反映。这就是为什么冯向军要在WEBER-FECHNER的基础上 建立起更一般的知觉模型 deltaS = a(deltaOS/ OS) + b(deltaOS) (1) 这其中 a、b为待定常数。 OS为某种客观的刺激; deltaS 为因客观刺激的变化而引发的感官变化; a(deltaOS/ OS) 是因客观刺激的相对变化而引发的感官变化; deltaOS是因客观刺激的绝对变化(或相对于某种不变的客观标准的变化)而引发的感官变化; 通过这些日子的讨论,我已逐步展示确实可以用上述模型来实现HARTLEY信息、香侬信息、复杂度信息、本质信息、KULLBACK相对信息、鱼罩子广义信息、观控隶属度、观控隶属域的超大统一。 (乙) (一) 我们从WEBER-FECHNER对数律推导出广义的相对信息的一种一般形式,从冯向军的知 觉模型得到了更一般的形式. 现在再把视野稍微扩展一点。把U视为刻划与信息有关的{不确定性,复杂性,可区 分性...}的某种参数. 我们诚恳地认为,几乎所有比较流行的信息测度模式均可归于如下方程、定律、模 型 (A) RI = log2 (U/Ub) (1-1) (广义相对信息的一种一般形式) (B) REs = p1* log2(U1/Ub) + p2* log2(U2/Ub) +...+ pn* log2(Un/Ub) (2-1) (具有单独可变门槛Ub的广义相对熵。) REm = p1* log2(U1/Ub1) + p2* log2(U2/Ub2) +...+ pn* log2(Un/Ubn) (3-1) (具有多种可变门槛的广义相对熵。) (C) WEBER-FECHNER对数律 delta S = a(deltaU/U) (4-1) (D) 冯向军的知觉模型 delta S = a(deltaU/U) + b(deltaU) (5-1) 这其中 U为描述与信息密切相关的{不确定性,复杂性,可区分性}的某种参 数,Ub, Ub1,Ub2,...Ubn为这种参数的可控达门槛。 p1, p2, ...pn是一概率分布, p1 + p2 +...+pn =1 (二) 现举例说明。 当 U 为 1/p, 而p为符号的概率, Ub = 1/max(p) =1,按(1-1)我们就有 RI = log2 (1/p) (1-2) 这RI就是汉明先生给出的信息的工程定义。 当 U 为 张学文玻尔兹曼状态数W,而Ub = min(W) =1, 按(1-1)我们就有 RI = log2 (W) (2-2) 这RI就是张学文广义集合的一种很好的复杂度。 当 U = 1/N, 而N为N种可能性, Ub = 1/min(N) = 1,按(1-1)我们就有 RI = log2 (N) (3-2) 这RI就是HARTLEY信息。 当 Ui = 1/pi, pi 为符号i的概率, i = 1,2, ..., n Ub = 1/max(p) = 1, 按 (2-1)式就有 REs = -p1log2 (p1) -p2log2(p2) -...-pnlog2(pn) (4-2) 这REs就是SHANNON信息熵。 当 Ui = pi, pi 为符号i的概率, i = 1,2, ..., n Ub = 1/n, 按 (2-1)式就有 REs = log2 (n) –[- p1log2 (p1) -p2log2(p2) -...-pnlog2(pn)] (5-2) 这REs就是于宏义先生的风险熵,我称之为聚集熵。(表面两者矛盾,实际上在不同条件下两者在某种程度上相通。) 当 Ubi = 1/pi, 而Ui =1/qi,qi是另一概率分布,i = 1,2,...,n,按 (3-1)式 就有 REm = p1log(p1/q1) +p2log(p2/q2) +...+ pklog(pk/qk) (6-2) 这REm就是Kullback-Leibler 相对熵。 当 U = 混淆概率 Q(Aj/xi), Ub= Q(Aj), 按(1-1)就有鱼罩子广义互信息 RI = I(xi, Aj) = log2(Q(Aj/xi) /Q(Aj)) (7-2) 当 U = 观控隶属域f(I),Ub = 任意指定的门槛隶属域fb,按 (1-1)就有观控互信息 GKI(xi,I) = log2( f(I/xi)/fb ) (8-2) 当pi = p(xi/zk), Ui =Qk(xi/zk), Ubi =Q(xi), 按 (3-1)就有

文档评论(0)

kjm3232 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档