多Agent系统中基于认知的信任框架研究FFF.doc

多Agent系统中基于认知的信任框架研究FFF.doc

  1. 1、本文档共19页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
多Agent系统中基于认知的信任框架研究FFF

多Agent系统中基于认知的信任框架研究FFF( 王家昉1+, 冯志勇1, 徐超1,许光全1, 1(天津大学 计算机科学与技术学院,天津 300072) 摘 要: 本文基于认知角度提出了一种Agent间以预动(proactive)的方式建立信任的形式化框架。在框架中首先区分了代理与非代理情形下的信任并分别给出定义。从信任的定义出发,施信方(the trustor)针对信任建立基于认知的推理过程,并根据推理需要主动向受信方请求信息。在获得所需信息后,考虑到交互信息的可靠性问题,施信方在任职推理的基础上进行关于可靠性的模糊推理,并决定是否建立信任。通过这个框架,Agent间可以在缺乏直接交互经验或者第三方证言的情况下,以预动的方式动态地建立信任,并且在信任建立的过程中,可以纳入复杂的上下文约束。同时,通过认知推理与模糊推理的结合,可以根据场景的需要采用不同的规则,给信任的建立带来更大的灵活性。 关键词: 信任;多Agent系统; 预动 中图法分类号: TP18  文献标识码: A 0B0B0B引言 信任在多Agent交互中扮演着重要角色。目前在多Agent系统中,很多信任模型都是从博弈论的角度出发[1],基于Agent间的交互历史或第三方证言,根据预先定义的效用函数进行博弈,从而确定是否建立信任。但是在一些临时系统[2]中(例如在一些基于多Agent系统的虚拟组织中,参与的Agent往往是为了适应快速变化的环境、寻找最好的合作机会组织在一起,如现在出现的一些发布任务的网站,任务中国、猪八戒等),Agent之间可能缺乏交互历史,也不能从第三方那里获取彼此间的信息。此外,基于博弈论的模型往往采用预先定义的效用函数,难以反映Agent在信任建立过程中的动态上下文变化。 这种情况下可以考虑施信方(the trustor)与受信方(the trustee)间通过直接交互过程来建立初步的信任。本文从认知的角度出发提出了一个施信方通过与受信方的预动交互建立信任的形式化框架。这个框架从认知的角度入手,将Agent视为具有内部状态、输入以及输出的系统。首先跟利用Agent的信念、意图给出了代理情形与非代理情形下的信任定义,施信方从信任定义出发建立关于信任的推理过程,并根据推理需要向受信方Agent请求信息。考虑到信息的可靠性问题,施信方接收到信息后,在基于认知推理的基础上进行关于信息可靠性的模糊推理,最终根据信任的可靠性决定信任能否建立。这种针对信任建立的交互过程一方面通过认知推理反映了信任建立时动态变化的上下文,另一方面利用模糊推理使得信任建立更具灵活性。 本文的结构大致如下。第二部分介绍相关的研究,主要是在多Agent领域针对信任的研究。第三部分主要介绍多Agent系统(Multi-Agent System, MAS)中预动的信任框架,包括基于认知的信任的定义以及基于控制论的信任建立的过程。第四部分通过一个场景说明了如何根据本文所提出的框架在Agent间建立信任。最后一部分对本文进行了总结,并对进一步的工作进行了讨论。 1B1B1B相关研究 在可计算的信任与信誉方面,研究人员提出了很多模型[1]。Marsh的模型从博弈论的角度出发,根据信任关系可能带来的效用及其重要性权值,以及直接交互的经历计算信任[1,3]。ReGerT系统也是从博弈论的角度出发,考虑直接经验、第三方证言和社会结构三种因素,通过不同的模块组成一个完整的信任模型,同时用户可以决定采用或不采用特定的模块,为信任的建立带来灵活性[1,4]。此外,Histos、Abdul-Rahman与 Hailes、Yu 与Singh等很多模型,一般均考虑从博弈论的角度出发,根据交互经验或第三方证言来计算信任[1],计算过程较为简单,方法容易利用。但是由于多采用预先定义的效用函数,在计算过程中难以体现Agent运行中上下文的动态变化,此外,在很多基于博弈论的模型、方法中[5,6,7],一般需要直接交互的经验以及第三方证言。但是对于处于临时系统[2]中的Agent,往往缺乏这些信息,采用如上的方法有一定困难。 Castelfranchi与Falcone的模型则从认知的角度为信任提供了一个新的视角[1,8]。他们的模型主要讨论了Agent间发生任务代理关系时的信任。他们将信任定义为一些相关的信念,比如关于能力、依赖性、倾向性的信念等。通过这样的定义,信任的建立可以通过基于认知逻辑的推理来实现,在推理的过程中可以纳入Agent运行的上下文约束,提高Agent间建立信任的灵活性。本文所采用的信任的定义主要基于他们的模型。但是,他们的模型在信任建立的过程方面依然借助于博弈论的方法,此外他们没有对非任务代理情形下的信任作进一步讨论 从认知的角度来看,Agent拥有其自身的心智部件(mental att

文档评论(0)

jiupshaieuk12 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

版权声明书
用户编号:6212135231000003

1亿VIP精品文档

相关文档