支持向量机实验报告汇总.doc

  1. 1、本文档共20页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
支持向量机实验报告汇总,支持向量机实验,工作汇总报告,高中生物实验汇总,汇总报告怎么写,初中物理实验题汇总,调查问卷汇总分析报告,汇总报告,工作汇总报告怎么写,实验室安全事故汇总

人工智能课程项目报告 姓名: ****** 班级:************** 目录 一、实验背景 1 二、实验目的 1 三、实验原理 1 3.1线性可分: 1 3.2线性不可分: 4 3.3坐标上升法: 7 3.4 SMO算法: 8 四、实验内容 10 五、实验结果与分析 12 5.1 实验环境与工具 12 5.2 实验数据集与参数设置 12 5.3 评估标准 12 5.4 实验结果与分析 12 一、实验背景 本学期学习了高级人工智能课程,对人工智能的各方面知识有了新的认识和了解。为了更好的深入学习人工智能的相关知识,决定以数据挖掘与机器学习的基础算法为研究对象,进行算法的研究与实现。 在数据挖掘的各种算法中,有一种分类算法的分类效果,在大多数情况下都非常的好,它就是支持向量机(SVM)算法。这种算法的理论基础强,有着严格的推导论证,是研究和学习数据挖掘算法的很好的切入点。 二、实验目的 对SVM算法进行研究与实现,掌握理论推导过程,培养严谨治学的科研态度。 三、实验原理 支持向量机基本上是最好的有监督学习算法。SVM由Vapnik首先提出(Boser,Guyon and Vapnik,1992;Cortes and Vapnik,1995;Vapnik, 1995,1998)。它的主要思想是建立一个超平面作为决策曲面,使得正例和反例之间的隔离边缘被最大化。 SVM的优点: 1.通用性(能够在各种函数集中构造函数) 2.鲁棒性(不需要微调) 3.有效性(在解决实际问题中属于最好的方法之一) 4.计算简单(方法的实现只需要利用简单的优化技术) 5.理论上完善(基于VC推广理论的框架) 3.1线性可分: 首先讨论线性可分的情况,线性不可分可以通过数学的手段变成近似线性可分。基本模型: 这里的裕量是几何间隔。 我们的目标是最大化几何间隔,但是看过一些关于SVM的论文的人一定记得什么优化的目标是要最小化||w||这样的说法,这是怎么回事呢? 原因来自于对间隔和几何间隔的定义(数学基础): 间隔:δ=y(wx+b)=|g(x)| 几何间隔: ||w||叫做向量w的范数,范数是对向量长度的一种度量。我们常说的向量长度其实指的是它的2-范数,范数最一般的表示形式为p-范数,可以写成如下表达式: 另外,注意我们的目标:最大化几何间隔,而不是求出这个间隔。即,在什么情况下间隔最大,我们要得到的是这个“情况”(w和b取什么值,因为所有x和y是已知的) 所以,我们可以把目标转换: ==》==》 在这个问题中,自变量就是w,而目标函数是w的二次函数,所有的约束条件都是w的线性函数(不要把xi当成变量,它代表样本,是已知的) 这种规划问题有个很有名气的称呼——二次规划(Quadratic Programming,QP),而且可以更进一步的说,由于它的可行域是一个凸集,因此它是一个凸二次规划。拉格朗日乘子法可以求解这个问题。 问题1: 实际上就是目标函数减去,ai乘上约束条件的累加和。 将问题转化为拉格朗日乘子待定问题。 经过数学计算(求导),可以发现:样本确定了w,用数学的语言描述,就是w可以表示为样本的某种组合: w=α1y1x1+α2y2x2+…+αnynxn 式子中的αi是一个一个的数,而xi是样本点,因而是向量,n就是总样本点的个数。 w的表达式可以简写如下: 另外可以得到约束条件: 把问题1写成其对偶形式,可转化成问题2: 这样就可以解了,而且方法很多,如SMO。解出来得到的是a,然后可以得到w和b,进而得到分类超平面。(事实上,不需要求出w,非线性下求出w也无意义) 3.2线性不可分: 在线性不可分的情况下,支持向量机首先在低维空间中完成计算,然后通过核函数将输入空间映射到高维特征空间,最终在高维特征空间中构造出最优分离超平面,从而把平面上本身不好分的非线性数据分开。 那是否意味着,每当我们解决一个问题,都需要找一个函数,从低维映射到高维?这个函数是什么样子的呢? 首先观察一下线性下的目标函数(转化后的)。(注:之所以观察这个公式,是因为转化到高维后,就线性可分了,最后推导得到的还是这个式子) 我们发现它关注的不是函数本身,而是函数结果的内积。即,我不在乎你把x(二维),转化为了x几维,也不在乎转化后的值是多少,我在乎的是转化之后,两个x再求内积(一个数)是多少。幸运的是,数学中有这样一些函数,他们叫核函数,计算效果相当于转化到高维后的内积。 百度百科的解释:核函数将m维高维空间的内积运算转化为n维低维输入空间的核函数计算,从而巧妙地解决了在高维特征空间中计算的“维数灾难”等问题,从而为在高维特征空间解决复杂的分类或回归问题奠定了理论基础。几个核函数: 多项

文档评论(0)

过各自的生活 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档