- 1、本文档共7页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于最优互信息的特征选取_通信学论文.doc
基于最优互信息的特征选取_通信学论文
基于最优互信息的特征选取_通信学论文
摘 要 本文提出一种新的多层神经网络的特征提取的方法。基于所提出的每个特征的评价函数值,此方法能够给出所有特征的排序。该方法在人造数据集和真实数据集上进行了实验。实验结果表明OMI能够准确地高效地在各种数据集上鉴别出最优特征集。
关键词 特征选取;特征排序;神经网络;多层神经网络
1 引言
随着信息科学技术的快速发展,在工业界和学术界有着更复杂和更大的多变量建模问题。研究人员发现当不相关和冗余的特征向量剔除之后,模式识别技术的性能将显著的提高。由此,特征提取成为了数据预处理和数据挖掘技术的重要的步骤之一。具体来讲,特征提取有助于在线计算,加强系统的可读性,以及提高系统的预测性能。
一般来讲,特征选择有两大步骤:计算评价函数值和特征子集搜寻[1]。评价函数要能反映出特征向量与数据类信息的匹配度信息,以及分类器性能变化的信息。而就特征子集搜寻来讲,为了避免繁冗的无遗漏搜寻,一些被大多数学者认可的搜寻方法被广泛采用,例如:前向选择,后向删除,双向搜寻等等[2]。与完全搜寻和随即搜寻相比,这三种顺序的搜寻方法都能简单而快速的执行。
在构造输入数据和输出数据的复杂映射方面,由于多层神经网络(MLP)的卓越性能,因而MLP被广泛的采用。本文采用MLP来作为分类器,来展示各种特征选取方法在各个数据集上的分类性能。
2 最优互信息
根据Shannon信息理论,一个随机变量C的不确定性可以由熵H(C)来估计。对于两个随机变量X和C,条件熵可以估计当变量X已知时,变量C的不确定性。而互信息可以估计变量C和变量X的相互依赖性。从而,H(C) , 和 三者有如下的关系[3]:
,等价于
(1)
训练分类模型的目的是最小化已知训练数据与类属性数据的不确定性。若 比较大,则意味着训练数据集X所包含的信息能够有效地预测它们的类属性;相反地,若 比较小,则意味着训练数据集X所包含的信息不能够有效地预测它们的类属性。所以,训练分类器的过程应该找一组分类器参数Θ,而尽可能增大互信息 。
而对于特征选取而言,其目的是从特征全集中选取一特征子集使得互信息尽可能的大以致于特征子集F能够有效地预测训练数据的类属性。也就是说,共有个F从而即可得到,我们可以选择最大的所对应的F来作为最优的特征集来代表特征全集X。
然而,以上的描述只是考虑到了特征子集F与类属性C有最大的相关性,F未必成为最优的特征集。例如若F中每个的特征与属性C有最大的相关性时,它们当中有可能含有极大线性或非线性相关的特征甚至重复的特征。所以我们应该剔除掉这些冗余的特征,使得处理后的F成为新的最优的特征集。
即最小化。
因此,最大相关性和最小冗余性应同时考虑在一起。我们定义一个算子Θ 将D和S结合起来来最大化Θ ,从而可以同时优化D和S:
(2)
在实际中,我们可以采取前向递增的搜寻方法,并根据(2)来找到最优的特征向量集。假设我们已经有了(m-1)个特征集Fm-1。现在的任务是要选取mth特征从。这一过程可以通过最大化Θ()来实现。也即优化下式:
(3)
其中, 。
3 OMI特征提取算法
通过以上分析,我们将OMI特征提取算法,表述为如下过程:
初始化:将F设为空集,X为包含所有特征的全集。
(1)计算与类属性的互信息:对每一个特征,计算 。
(2)选取第一个特征:选择特征f,对应最大的互信息值;并且设置。
(3)递归计算:选择特征f,对应最大的OMI评价函数,即:
(4)如果,回到第2步,否则F即为最终所有特征向量的排序。
需要指出的是,通过计算特征向量与类属性的互信息值,来导出每个特征向量相关性的排序,在理论上是可以证明的。另外,OMI评价函数可以避免估算多变量的的密度函数来求互信息。例如:计算 和 ,意味着需要先计算和。而这两项在高维数据集的实例中,无法有效地准确地估计。而OMI中,只需计算和,意味着只需先计算和即可。通常这两项可以用Parzen Window,Histogram等常用的低维密度函数估计的方法来估计。
4 其它特征提取算法
当今,特征提取的方法可以总体分为两大类:过滤式和嵌入式。过滤式是指特征提取的算法与分类器的训练算法无关;而嵌入式是指特征提取的算法与分类器的训练算法直接相关。一般而言,过滤式的方法容易执行而且运行效率高,然而嵌入式的方法选出的特征向量更可靠但是计算量非常大。本文提出的OMI方法,在特征向量选取和排序时并未用到任何分类器的训练算法,所以OMI属于过滤式的特征选取方法。但是在后文的实验部分可以看到OMI选取的特征向量比有代表性的嵌入式特征选取方法还要好。
当今有代表性的过滤式方法为Fisher Score[4]。Fisher Score方法通过式(
您可能关注的文档
- 基于UBL和纯XML数据库的EDI系统设计与实现_计算机论文.doc
- 基于UDDI的Web服务发现系统的设计和实现_计算机论文.doc
- 基于UML顺序图的场景测试用例生成方法_计算机论文.doc
- 基于USB总线的嵌入式虚拟仪器的设计_计算机论文.doc
- 基于VB的串口通讯及其软件实现_通信学论文.doc
- 基于vc与word、outlook对象模型的email实现_计算机论文.doc
- 基于VC的连续挤压机主轴转速的动态曲线的实现_计算机论文.doc
- 基于VC视频监控设备管理系统的设计与实现_计算机论文.doc
- 基于Verilog HDL的模型优化_计算机论文.doc
- 基于VisualFoxPro环境开发管理系统_计算机论文.doc
- 2025年大庆市肇州县乡镇卫生院招聘医学毕业生(8人)笔试备考试题含答案详解(达标题).docx
- 2025年宁夏回族自治区中医医院暨中医研究院上半年自主招聘急需紧笔试备考试题带答案详解(完整版).docx
- 2025年度信宜市民政局所属事业单位(信宜市社会福利指导中心)选考前自测高频考点模拟试题及答案详解(.docx
- 2025年宣恩县残疾人联合会招聘公益性岗位人员的(2人)考前自测高频考点模拟试题及一套答案详解.docx
- 2025年山东省人民政府发展研究中心公开招聘人员(4名)考前自测高频考点模拟试题含答案详解(培优a卷.docx
- 2025年度黑龙江省各级机关补充录用公务员(470人)考前自测高频考点模拟试题及答案详解(夺冠系列).docx
- 2025年常德市鼎城区卫生健康局所属乡镇卫生院招聘工作人员(模拟试卷及完整答案详解1套.docx
- 2025年广西金融职业技术学院招聘高级职称人才(11人)模拟试卷参考答案详解.docx
- 2025年广东省梅州市蕉岭县专场招聘紧缺学科教师(8人)模拟试卷含答案详解(考试直接用).docx
- 2025年穆棱市乡镇卫生院招聘医学毕业生(8人)笔试备考试题含答案详解(新).docx
文档评论(0)