- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
特征选择
特征选择
1.背景
数据集的大小可以从两方面衡量:特征的数目n和样本的数目P, n和P可能很大,而n的庞大常会引起维数灾难((Curse of Dimensionality)等问题。特征选择是常用的数据降维方法之一。特征选择是指从原始特征集中选择使某种评估标准最优的特征子集。; 最早的特征选择研究是上世纪60年代初开始的,当时的研究主要是集中于统计学及信号处理问题,而且一般涉及到的特征较少,并且通常假定特征之间是独立的。上个世纪90年代以来涌现的大规模机器学习问题,使得已有的算法受到严峻的挑战,迫切需要适应大规模数据的准确性和运行效率等综合性能较好的特征选择算法。特征选择已引起机器学习等领域学者广泛的研究兴趣。;2. 特征选择的定义
特征选择 ( Feature Selection )也称特征子集选择( Feature Subset Selection , FSS ) ,或属性选择( Attribute Selection ) ,是指从全部特征中选取一个特征子集,使构造出来的模型更好。
3. 特征选择的目的和方法
在机器学习的实际应用中,特征数量往往较多,其中可能存在不相关的特征,特征之间也可能存在相互依赖,容易导致如下的后果:
1)、特征个数越多,分析特征、训练模型所需的时间就越长。
2)、特征个数越多,容易引起“维度灾难”,模型也会越复杂,其推广能力会下降。
特征选择能剔除不相关或冗余的特征,从而达到减少特征个数,提高模型精确度,减少运行时间的目的。另一方面,选取出真正相关的特征简化了模型,使研究人员易于理解数据产生的过程。
;Filter;Wrapper;Embedded;4. 特征选择的一般过程
特征选择的一般过程可用下图表示。首先从特征全集中产生出一个特征子集,然后用评价函数对该特征子集进行评价,评价的结果与停止准则进行比较,若评价结果比停止准则好就停止,否则就继续产生下一组特征子集,继续进行特征选择。选出来的特征子集一般还要验证其有效性。
;4.1产生过程
产生过程是搜索特征子集的过程。搜索的算法分为完全搜索(Complete),启发式搜索(Heuristic),随机搜索(Random) 3大类。
4.1.1 完全搜索
完全搜索分为穷举搜索(Exhaustive)与非穷举搜索(Non-Exhaustive)两类。算法具体包括:
广度优先搜索( Breadth First Search )
分支限界搜索( Branch and Bound )
定向搜索 (Beam Search )
最优优先搜索 ( Best First Search )
;4.1.2 启发式搜索
1、序列前向选择
算法描述:特征子集X从空集开始,每次选择一个特征x加入特征子集X,使得特征函数J( X)最优
2、序列后向选择
算法描述:从特征全集O开始,每次从特征集O中剔除一个特征x,使得剔除特征x后评价函数值达到最优。
3、双向搜索
算法描述:使用序列前向选择(SFS)从空集开始,同时使用序列后向选择(SBS)从全集开始搜索,当两者搜索到一个相同的特征子集C时停止搜索。;4、增L去R选择算法
该算法有两种形式:
1 算法从空集开始,每轮先加入L个特征,然后从中去除R个特征,使得评价函数值最优。( L R )
2?算法从全集开始,每轮先去除R个特征,然后加入L个特征,使得评价函数值最优。( L R )
5、序列浮动选择
算法描述:序列浮动选择由增L去R选择算法发展而来,该算法与增L去R选择算法的不同之处在于:序列浮动选择的L与R不是固定的,而是“浮动”的,也就是会变化的。
6、决策树
算法描述:在训练样本集上运行C4.5或其他决策树生成算法,待决策树充分生长后,再在树上运行剪枝算法。则最终决策树各分支处的特征就是选出来的特征子集了。
;4.1.3随机搜索
随机产生序列选择算法(RGSS, Random Generation plus Sequential Selection)
模拟退火算法( SA, Simulated Annealing )
遗传算法( GA, Genetic Algorithms );4.2评价函数
评价函数的作用是评价产生过程所提供的特征子集的好坏。评价函数根据其工作原理,主要分为筛选器(Filter)、封装器( Wrapper )两大类。
筛选器通过分析特征子集内部的特点来衡量其好坏。
封装器实质上是一个分类器,封装器用选取的特征子集对样本集进行分类,分类的精度作为衡量特征子集好坏的标准。
筛选器和封装器是两种互补的模式,两者可以结合。混合特征选择过程一般可以由两个阶段组成,
文档评论(0)