- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
支持向量机在仓储物害虫分类识别中的应用研究.pdf
2005年第22卷第1期 微电子学与计算机 29
加0)l,使得预测的期望风险最小。传统的机器学习办 来代替经验风险最小化原则,能很好地解决过学习
法是基于经验风险最小化原则的。但人们发现,追 和欠学习问题。
求经验风险不是总能达到好的预测效果。某些情况 2.3支持向量机
下.经验误差过小反而会导致推广能力的下降,这 设线性可分样本集为阮,),i),扛1,…,n,戈E尺。,y∈
就是过学习问题。学习机器对未来输出进行正确预 {+1,一1)是类别标号。d维空间中线性判别函数的一
测的能力称作推广性。具有很好推广性的学习机器 般形式为触)=埘·戈+6,分类面方程为叫·戈+6=0。将判
才是有意义的。出现过学习现象的原因主要是由于 别函数进行归一化,使两类所有样本都满足l小)I≥
学习样本不充分和学习机器设计不合理。当试图用 1,使离分类面最近的样本的I舷)|-1,这样分类间隔
一个复杂的模型去拟合有限的样本,必然会丧失推
广能力。有限样本下学习机器的复杂性与推广性之 小:要求分类线对所有样本正确分类,即满足:
间存在矛盾。机器的复杂性高,必然会导致其推广 孔[(叫·戈J+6】一1≥0,i=1,2,…,n(1)
性差;反之,一个推广性好的学习机器,其分类能力 因此,满足上述条件且使||埘Il最小的分类面
必然不够强。于是设计一个好的学习机器的目标就 就是最优分类面。
变成如何在学习能力和推广性之间取得一个平衡, 最优分类面问题可以看成约束优化问题进行
使得在满足给定学习能力的前提下。如何提高其推 求解,即在公式(1)的约束下,求函数的最小值:
广性。 ∞)=12||埘lI=12∞·伽) (2)
2.2结构风险最小化 可以使用La殍ange乘数法求解,由于篇幅有
所谓结构风险最小化.就是在确定的置信范围 限,不再赘述。对于线性不可分问题.则可以考虑将
内,寻找最小经验风险。随着函数子集复杂度的增 其映射到一个高维空间中,使得在该空间中线性可
加,置信范围会增大,而经验风险会减小。选择最小 分.并且线性判决只需在高维空间中进行内积运
经验风险与置信范围之和最小的函数子集,就可以 算,甚至没有必要知道采用的非线性变换的形式,
达到期望风险的最小.这个函数子集中使经验风险 所以避开了高维变换计算问题,使问题大大简化。
最小的函数就是要求的最优函数。在结构风险最小 根据Hilbert
化原则下.一个分类器的设计过程包括以下两方面 cer条件,它就可以作为内积函数使用。目前使用的
任务: 内积函数主要有以下三类:
f1)选择一个适当的函数子集(使之对问题有最
优的分类能力); 个口阶多项式分类器。
(2)从这个子集中选择一个判别函数(使经验风
险最小1。 该SVM是一种径向基分类器。
第一步相当于模型选择.而第二步则相当于在
确定了函数形式后的参数估计。图l表示结构风险 SVM是一个两层的感知器网络。根据不同的分类问
的最小化过程。 题,可一以选用不同的核函数。径向基形式的内积函
数与人的视觉特性类似,在实际中应用很广。但是
需要注意的是,选择不同的盯参数值。相应的分类
面会有很大的差别㈨。
文档评论(0)