- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第七章特征选择与提取
第七章 特征选择与提取 于是: 特征向量的求解就用前面的对角化方法: m维空间中的任何非奇异变换矩阵A都不改变J(W)的值,因此可以忽略A。 (请自己证明) 设矩阵 的特征值为 则选取前m个特征值对应的特征向量作为W,则 关于LDA的几点说明: 对于k类问题,选出的特征个数最多只有k-1,这是因为 的秩最多 为k-1。因此,对应非零特征根的特征向量最多有k-1个,那些零特征根对 应的特征向量对判据 的值没有任何影响。 LDA可以从另一个角度很容易的推出:假设每类数据服从不同均值, 相同协方差均阵 的正态分布。从最小错误率准则出发就可以得到相同的结果。 回忆Bayes决策理论一章的习题,两类问题,正态分布且相同协方差矩阵的假设下,决策面是超平面: 特征: 就是矩阵 的特征向量。因为 推广: (1) LDA可以从相同协方差矩阵的正态分布假设和最小错误率准则推出,是Campbell在1984年指出的。 (2) 可以做两方面的推广: 假设各类服从协方差矩阵不同的正态分布,称为Heteroscedastic Discriminant Analysis (HDA). 假设各类服从协方差矩阵相同的Gauss混合分布。 7.5.2 特征选择 特征选择是从原始特征中挑选出一些最有代表性,分类性能最好的特征来。?? 每个特征的状态是离散的—选与不选。 从N个特征中选取k个,共种 组合。若不限定个数,则共 种。-NP 问题?? 这是一个典型的组合优化问题 特征选择的方法大体可分两大类: (1)Filter方法:不考虑所使用的学习算法。通常给出一个独立于分类器的指标μ来评价所选择的特征子集S,然后在所有可能的特征子集中搜索出使得μ最大的特征子集作为最优特征子集。 (2)Wrapper方法:将特征选择和分类器结合在一起,即特征子集的好坏标准是由分类器决定的,在学习过程中表现优异的的特征子集会被选中。 一种Filter算法: FOCUS ?? 该算法致力于寻找一个能够正确区分所有类别的最小特征集合。例如,若区分每个人的特征有:姓名、性别、籍贯、工作单位、身份证号……则该算法会选择:身份证号。搜索时先看一个特征能否正确区分样本,若不能,则考察两个特征……以此类推 一种Wrapper算法:OBLIVION ?? 该方法与最近邻法结合,根据特征子集的分类表现来选择特征。用顺序后退法搜索特征子集:从全体特征开始,每次剔除一个特征,使得所保留的特征集合有最大的分类识别率(基于最近邻法)。依次迭代,直至识别率开始下降为止用leave-one-out 方法估计平均识别率:用N-1个样本判断余下一个的类别,N次取平均。 许多特征选择算法力求解决搜索问题,经典算法有: 分支定界法,顺序后退法,顺序前进法,模拟退火法,Tabu搜索法,遗传算法 特征选择-遗传算法 1、算法的哲学思想:“物竞天择,适者生存” 2、几个术语: (1)基因链码:使用遗传算法时要把问题的每个解编码成一个基因链码。比如要从D个特征中挑选d个,就用一个D位的0或1组成的字符串表示一种特征组合。1表示该特征被选中每个基因链码代表一个解,称作一个“个体”,其中的每一位看作一个“基因” 效果举例 比如在某组数据的实际中 7.3.2 非最优搜索方法 非最优,但某些情况下最优,实现简单 (1)单独最优组合 选前d 个单独最佳的特征 (2)SFS 法(Sequential Forward Selection:顺序前进,前向贯序) 从底向上 每加入一个特征寻优一次,使加入该特征后所得组合最大 特点:考虑了特征间的相关性,但某特下一经入选,即无法淘汰 (3)广义SFS 法(GSFS) 从底向上,每次增加l 个特征。考虑了新增特征中的相关性 计算量比SFS 大,若l = d ,(一步加满),则就是穷举法 (4)SBS 法(顺序后退,后向贯序) 从顶向下,每次减一个特征 与SFS 相对,一旦失去,无法换回 (5)广义SBS 法(GSBS) 从顶向下,每次减r 个特征 (6)L-R 法(增l减r 法) 自底向上,每次增l个再减r 个特征( l r ) 或向顶向下,每次减r 个再增l个特征( l r ) 特点:带有局部回溯过程 (7)广义L-R 法( ( , ) 法) 增l 分成 步进行,减r 分成 步进行。 目的是在适当考虑特征间相关性的同时又能保持适当的计算量。 模拟退火法(Simulated Annealing) Tabu 搜索算
您可能关注的文档
最近下载
- 北京十三中2025-2026学年上学期初二数学期中考试试卷.doc VIP
- 2025-2026学年初中信息技术(信息科技)第4册泰山版(2018)教学设计合集.docx
- 黑龙江总工会招聘考试试题及答案.doc VIP
- 六年级上册数学第四单元《解决问题的策略—假设》教学课件(苏教版).pptx VIP
- 新形态一体化教材建设的探索与实践.docx VIP
- 人教版二年级数学上册期中学业质量测评卷 (范围:第一单元至第三单元) (含答案).docx VIP
- 中班科学活动动物的家讲课.pptx VIP
- 生产部绩效考核表经典.doc VIP
- 99(03)S203消防水泵接合器安装(2003年局部修改版).pdf VIP
- 2025年高考模考作文:凡事预则立,不预则废.docx VIP
原创力文档


文档评论(0)