基于邻域互信息和[K]均值的基因选择算法.docVIP

基于邻域互信息和[K]均值的基因选择算法.doc

  1. 1、本文档共7页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于邻域互信息和[K]均值的基因选择算法.doc

基于邻域互信息和[K]均值的基因选择算法   摘要:多数传统的属性聚类算法不能直接处理连续型属性,为了避免连续数据离散化处理时造成的信息损失,降低样本属性邻域求解的复杂度,提高特征基因提取的效率。文中提出一种将邻域互信息用于属性聚类的特征基因选择方法,用于在海量的基因表达谱数据中挖掘出少量的具有分类识别能力且冗余度较小的特征基因。   关键词:粒计算;邻域互信息;属性聚类;基因选择   中图分类号:TP311 文献标识码:A 文章编号:1009-3044(2014)04-0821-03   1 概述   基于属性约简算法的特征基因选择是为了获得一组基因数量尽可能小而分类能力却尽可能强的特征基因子集。对于传统的属性聚类算法[1],依据信息熵作为相关度,将属性分成不同的簇,然而,多数聚类算法不能直接处理连续型属性。当需要处理连续型属性时,通常的做法是将连续数据离散化[2],而离散化会导致信息丢失,使选出的特征基因子集的分类准确率较其他方法不高。   基于粒计算的特征基因提取方法是在邻域互信息和聚类的基础上提出的,结合最小冗余度,最大相关的方法,进行属性约简。对样本基因进行K均值聚类,聚成十类,形成十个簇。利用邻域互信息作为相关性度量,选择出每一个簇的模式,用于进一步基因选择。邻域互信息的方法不需要对连续数据进行离散化处理,避免了信息损失,同时,提高了特征基因子集提取的效率。   2 邻域互信息和K均值方法   2.1 邻域互信息   定义2.1 对于任何一个样本,其[δ]邻域为[3]:   [δ(xi)=x|x∈Gene,Δ(x,xi)≤δ] (1)   定义2.2 第[i]样本的邻域互信息[NMIδ(R;S)]为[4]:   [NMIδ(R;S)=-1ni=1nlog||δR(xi)||?||δS(xi)||n||δS?R(xi)||] (2)   其中[δR(xi)],[δS(xi)]分别是[xi]在属性集合[R]与[S]上的[δ]邻域,[δR?S(xi)]是[xi]在属性集合[R?S]上的邻域,‖X‖是集合[X]的基。   算法1:邻域互信息   Step1:对整个基因组数据[Gene=x1,x2,…xn],[xi]表示第[i]个样本[(i=1…n)],[n]表示样本个数;   Step2:[Fj]表示属性集合[(j=1,…,9217),][R]表示第[i]个样本的所有属性,[S]表示整个的所有属性,根据式子得到第[i]样本的邻域互信息[NMIδ(R;S)];   Step3:对第[i]样本的邻域互信息[NMIδ(R;S)]进行归一化处理,得到归一化之后的数据[NMIδ]。   2.2 K均值算法描述   给定一个包含[n]个数据对象的数据库,以及要生成簇的数目[k],随机选取[k]个对象作为初始的[k]个聚类中心;然后计算剩余各个样本到每一个聚类中心的距离,把该样本归到离它最近的聚类中心所在的类,对调整后的新类使用平均值的方法计算新的聚类中心;如果相邻两次的聚类中心没有任何变化,说明样本调整结束且聚类平均误差准则函数已经收敛[5][6]。   算法2:划分并计算基于簇中对象的平均值[7]   输入:簇的数目[k]和包含[n]个对象的数据库   输出:平方误差总和最小条件下的[k]簇   Step1:选择[k]个样本作为初始凝聚点(聚类种子),或者将所有样本分成[k]个初始类,然后将[k]个类的重心(均值)作为初始凝聚点;   Step2:对除凝聚点之外的所有样品逐个归类,将每个样品归入离它最近的凝聚点所在的类,该类的凝聚点更新为这一类目前的均值,直至所有样品都归了类;   Step3:重复步骤2;   Step4:直至所有的样品不能再分配为止。   [K]均值算法的工作过程说明如下[8]:首先从[n]个数据对象任意选择[k]个对象作为初始聚类中心;而对于所剩下其它对象,则根据它们与这些聚类中心的相似度(距离),分别将它们分配给与其最相似的(聚类中心所代表的)聚类;然后再计算每个所获新聚类的聚类中心(该聚类中所有对象的均值);不断重复这一过程直到标准测度函数开始收敛为止。一般都采用均方差作为标准测度函数。[k]个聚类具有以下特点:各聚类本身尽可能的紧凑,而各聚类之间尽可能的分开。   3 属性相关度的聚类算法   定义3.1 设某个样本的单个属性为[Fj],[Fk]与[Fh],[h≠k≠j],[j,k,h∈(1,...,9217)]。在第[i]个样本里[Fj]表示[j]个属性,[Fk]表示第[k]个属性,[Fh]表示第[h]个属性,则[Fj]与[Fk]相关度为:   [NRδ(Fj;Fk)=NMIδ(Fj;Fk)NHδ(Fj,Fk)] (3)   其中,[

文档评论(0)

lmother_lt + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档