- 1、本文档共9页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
基于支持向量机上证指数开盘指数预测
基于支持向量机上证指数开盘指数预测摘要:支持向量机在模式分类、回归分析等领域应用的过程中,其性能依赖于参数的选取,而参数往往是随机给定的或凭测试经验给定。针对这一情况,对影响模型分类、回归能力的相关参数进行了研究,采用交叉验证的思想对其中重要的两个参数(误差惩罚参数和高斯核参数)进行了优化,并成功的应用于上证指数开盘指数的预测,达到了很好的效果
关键词:支持向量机;交叉验证;参数优化;上证指数
中图分类号:TP 文献标志码:A
Prediction of Opened Index in Shanghai Composite Index
Based on Support Vector Machines
Zhou Yi
(Computer Science, South-Central University for Nationalities, Wuhan, Hubei 430074)
Abstract: In the application of pattern classification, regression analysis and other fields, the performance of Support Vector Machine always depends on the parameter selection, and often given by random or experience. In response to this situation, the relevant parameters which affect the model of classification, regression ability had been studied, using Cross-Validation, two of the best important parameters (error penalty parameter and Gaussian kernel parameter ) is optimized, which can successfully used in the prediction of opened index in Shanghai Composite Index and achieve good results.
Key words: Support Vector Machine; Cross Validation; parameter optimization; Shanghai Composite Index
0 引言
支持向量机(Support Vector Machine, SVM)由Vapnik于20 世纪90年代提出,可以解决小样本情况下的机器学习问题、高维问题、非线性问题、可以提高泛化性能、避免神经网络结构选择和局部极小点问题,在理论研究和算法实现方面都取得了突破性进展,开始成为克服“维数灾难”和“过学习”等传统困难的有力手段[1]。目前,SVM已被广泛应用于模式分类、回归分析、函数估计等领域。然而在分类、回归的过程中,SVM参数对分类精度、回归预测效果有较大的影响。选择合理的参数可使SVM具有更高的精度和更好的泛化能力。传统的参数选择方法是通过随机给定的或凭测试经验给定的,难以达到分类的最优化。本文基于交叉验证(Cross Validation, CV)的方法对SVM的参数进行了优化,并有效的应用于上证开盘指数预测
1 支持向量机
SVM方法是通过一个非线性映射,把样本空间映射到一个高维乃至无穷维的特征空间中(Hilbert空间),使得在原来的样本空间中非线性可分的问题转化为在特征空间中的线性可分的问题,也就是升维和线性化[2]。升维,就是把样本向高维空间做映射,这会增加计算的复杂性,甚至会引起“维数灾难”,因而人们很少问津。但是作为分类、回归等问题来说,很可能在低维样本空间无法线性处理的样本集,在高维特征空间中却可以通过一个线性超平面实现线性划分(或回归)
SVM方法巧妙地解决了升维带来的计算复杂化[3]:应用核函数的展开定理,就不需要知道非线性映射的显式表达式;并且由于是在高维特征空间中建立线性学习机,所以与线性模型相比,不但不增加计算的复杂性,而且在某种程度上避免了“维数灾难”。这样,对核函数的参数g优化就显得至关重要
文献[4]指出:误差惩罚参数c(即支持向量系数口i的上界)可实现在错分样本的比例和算法复杂度之间的折中,在确定的特征子空间中调节学习机器置信范围和经验风险的比例以使学习机器的推广能力达到最好。它的选取一般是由具体的问题而定,并取决于数据中噪声的数量。在确定的特征子空间
您可能关注的文档
最近下载
- 资本主义的发展历程(萌芽、制度确立、扩展)课件+++2024年湖南省中考二轮专题复习.pptx VIP
- 施耐德电气 SD328B 步进电机驱动器 产品手册.pdf
- J B-T 8975-2006 低压信号灯-机械行业标准规范.pdf VIP
- 医保支付方式改革—DRG与DIP.pptx
- 《10kV电杆结构部分计算书》.doc
- 《艺术学概论》随堂测验1-9答案.docx VIP
- 银行业防火演练方案.docx VIP
- 中医病历模板(腰突5).doc VIP
- Long-Term-Development-in-Sport-and-Physical-Activity-3.0体育运动中的长期发展.pdf
- 2023年陕西投资集团有限公司校园招聘考试笔试题库及答案解析.docx
文档评论(0)