基于支持向量机的分类算法研究-计算数学专业论文.docxVIP

基于支持向量机的分类算法研究-计算数学专业论文.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
摘要摘 摘要 摘 要 传统的模式识别方法在处理问题时通常需要建立准确的数学模型,而且在 解决菲线性问题时很难有好的表现。许多传统统计学习方法都将基于样本数目 趋于无穷大时的渐近理论作为假设,这些方法在实际应用中,往往表现不尽人 意。支持向量机在解决建立模型难,维数灾难方面有很好表现,并且存小样本 数据中有良好应用。正在成为继模式识别和神经网络研究之后机器学习领域新 的研究热点。 本文在统计学习理论基础上深入探讨了支持向量机算法及其在分类中的应 用。分类实验分三组进行,选择多项式和径向基两种核函数的支持向量机进行分 类仿真实验研究。 在分类实验中,我们发现支持向量的数量远远小于样本数,这为我们解决 大规模数据问题提供了方法。将训练样本集分解成若干个小子集,按顺序对各 子集逐个训练学习,避免了大规模数据计算的麻烦。实验中采用不同规模的训 练样本集,从结果发现对于训练样本较少的数据集,采用结构简单的学习函数 会避免出现过学习现象;相反对于训练样本较多的数据集,采用结构简单的学 习函数,会降低机器学习的推广能力。在实验中引进惩罚因子C,允许训练时 错分样本的存在,适当增大C的值,可以提高学习机的推广能力。支持向量机 在寻求最优分类面的过程中,只涉及到内积运算,避免了维数灾难问题。由于 在中等规模数据中,支持向量机的参数会影响到分类结果,为了得到最佳的分 类精度,我们采用交叉验证方法选择参数值,结果表明,交叉验证法选择参数 提高了实验的平均测试准确率。最后,把实验仿真结果和神经网络算法结果相 比较,结果表明支持向量机分类算法优于神经网络算法。 关键词:支持向量机;模式识另q;统计学理论;神经网络 东北电力大学硕上学位论文Abstract 东北电力大学硕上学位论文 Abstract The traditional pattern recognition methods deal with the issue wim the accurate model.It is also difficult to have a good showing against the non—linear problem.The traditional statistical learning theory is asymptotic theory based on the number of the sample tending to infinity.Practical applications of these methods are often unsatisfactory.The support vector machines have good displays in solving modeling and the dimension disaster.It has also the good application in the small samples。It is becoming a new hot spot in the machine learning domain. This thesis discusses the principle of the support vector machine and its application in classification.The experiments are divided into three groups and two kinds of support vector machines for polynomial kernel and radial basis function ale chosen to experiment by changing the parameter values. In the classification experiment,we find that the number of the support vector is far less than the number of the training sample number.This provides the method for us to solve the large·scale data problem by dividing train samples into several small subsets and sequentially training subsets one by one.Different size training samples are chosen in the experiments.The results show that,based on

您可能关注的文档

文档评论(0)

131****9843 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档