- 1、本文档共49页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
模式识别导论[三]ppt-分类器的设计线性分类器的设计分段线性
第三章 分类器的设计; §3-1 线性分类器的设计;利用已知类别学习样本来获得权向量的训练过程如下;利用方程组来求解权向量
对二类判别函数g(x) = W1X1+ W2X2 +W3
已知训练集:Xa, Xb, Xc, Xd且
当 (Xa, Xb) ∈W1时 g(x)>0
当 (Xc, Xd) ∈W2时 g(x)<0
设 Xa = (X1a, X2a)T Xb = (X1b, X2b)T
Xc = (X1c, X2c)T Xd = (X1d, X2d)T
判别函数可联立成:
X1aW1+ X2aW2+ W3>0 ①
X1bW1+ X2bW2+ W3>0 ②
X1cW1+ X2cW2+ W3<0 ③
X1dW1+ X2dW2+ W3<0 ④
求出W1 , W2, W3
;将③ ④式正规化,得
-X1cW1- X2cW2- W3 0
-X1dW1- X2dW2- W3 0
所以 g(x) =WTX 0 其中W = (W1 , W2, W3)T
为各模式增1矩阵
为N*(n+1)矩阵
N为样本数,n为特征数;训练过程就是对已知类别的样本集求解权向量w,
这是一个线性联立不等式方程组求解的过程。
求解时:
①?只有对线性可分的问题,g(x) =WTX才有解
②?联立方程的解是非单值,在不同条件下,有不同的解,所以就产生了求最优解的问题
③ 求解W的过程就是训练的过程。训练方法的共同点是,先给出准则函数,再寻找使准则函数趋于极值的优化算法,不同的算法有不同的准则函数。算法可以分为迭代法和非迭代法。
;一 梯度下降法—迭代法;在第K步的时候
Wk+1 = Wk-ρk▽J(Wk) ρk为正比例因子
这就是梯度下降法的迭代公式。这样一步步迭代
就可以收敛于解矢量,ρk取值很重要
ρk太大,迭代太快,引起振荡,甚至发散。
ρk太小,迭代太慢。
应该选最佳ρk。
;选最佳ρk
目标函数J(W)二阶台劳级数展开式为
J(W)≈J(Wk)+ ▽JT(W- Wk)+(W- Wk)TD(W- Wk)T/2 ①
其中D为当W = Wk时 J(W)的二阶偏导数矩阵
将W=Wk+1 = Wk-ρk▽J(Wk)代入①式得:
J(Wk+1) ≈J(Wk)- ρk||▽J||2+ ρk2▽JT D▽J
其中▽J=▽J(Wk)
对ρk求导数 ,并令导数为零有
最佳步长为ρk=||▽J||2/▽JTD▽J
这就是最佳ρk的计算公式,但因二阶偏导数矩阵D的计算
量太大,因此此公式很少用。 ;若令W=Wk+1上式为
J(Wk+1)=J(Wk)+▽JT(Wk+1-Wk)+(Wk+1-Wk)TD(Wk+1-Wk)T/2
对Wk+1求导,并令导数为零可得:
最??迭代公式:Wk+1= Wk- D-1▽J —牛顿法的迭代公式
D-1是D的逆阵
讨论:牛顿法比梯度法收敛的更快,但是D的计算量大并且要计算D-1。当D为奇异时,无法用牛顿法。
;二 感知器法;通过对W的调整,可实现判别函数g(x) =WTX RT
其中RT为响应阈值
定义感知准则函数:只考虑错分样本
定义: 其中x0为错分样本
当分类发生错误时就有WTX 0,或-WTX 0, 所以J(W)
总是正值,错误分类愈少, J(W)就愈小。
理想情况为 即求最小值的问题。;
求最小值对W求梯度
代入迭代公式中Wk+1 = Wk-ρk▽J
由J(W)经第K+1次迭代的时候,J(W)趋于0,收敛于所求的W值;W的训练过程:
例如:x1, x2, x3∈ω1 作 x1, x3的垂直线可得解区(如图)
假设起始权向量w1=0 ρk = 1
1. x1, x2, x3三个矢量相加得矢量2,垂直于矢量2的超平面H将x3错分.
2. x3与矢量2相加得矢量3,垂直于矢量3的超平面H
文档评论(0)