LDA线性判别分析幻灯片.ppt

  1. 1、本文档共15页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
LDA线性判别分析幻灯片

LDA(线性判别分析) 2017.11 LDA(线性判别分析) LDA的全称是Linear Discriminant Analysis(线性判别分析1936Ronald Fisher),是一种监督学习降维方法,也就是说它的数据集的每个样本是有类别输出的。这点和PCA(Principal Component Analysis)不同。PCA是不考虑样本类别输出的无监督降维技术。 有监督学习:分类。通过已有的训练样本(即已知数据以及其对应标签)去训练得到一个最优模型(这个模型属于某个函数的集合,最优则表示在某个评价准则下是最佳的),再利用这个模型将所有的输入映射为相应的输出。KNN、SVM 无监督学习:聚类。训练数据没有标签。K_means,PCA,随机森林 半监督学习:其训练数据的一部分是有标签的,另一部分没有标签。在很多实际问题中,只有少量的带有标记的数据,因为对数据进行标记的代价有时很高半监督分类,半监督聚类。  降维的目的: 1.减少预测变量的个数 在人脸识别中特征提取及数据维,假设输入200*200大小的人脸图像,单单提取它的灰度值作为原始特征,则这个原始特征将达到40000维,这给后面分类器的处理将带来极大的难度。 2.确保这些变量是相互独立的 有效信息的提取综合及无用信息的摈弃。 3.提供一个框架来解释结果 LDA是在目前机器学习、数据挖掘领域经典且热门的一个降维算法,LDA在模式识别领域(比如人脸识别,舰艇识别等图形图像识别领域)中有非常广泛的应用。百度商务搜索部里面也用了不少这方面的算法。 降维标准: 投影后类内方差最小,类间方差最大。我们要将数据在低维度上进行投影,投影后希望每一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大。 我们的数据一般是多个类别的,一般也是超过二维的,投影后的也一般不是直线,而是一个低维的超平面。 LDA人脸识别(Fisherface) 通常情况下,待匹配人脸要和人脸库内的多张人脸匹配,所以这是一个多分类的情况。出于简单考虑,可以先介绍二类的情况然后拓展到多类。假设有二维平面上的两个点集x(x是包含横纵坐标的二维向量),它们的分布如下图(分别以蓝点和红点表示数据): 以数学公式给出投影点到到原点的距离: w以从原点出发的直线来表示,直线上的点是原数据的投影点。下图给出了两种w方案,直观判断右侧的w更好些,其上的投影点能够合理的区分原有的两个数据集。但是计算机不知道这些,所以必须要有确定的方法来计算这个w。 首先计算每类数据的均值(中心点): i是数据的分类个数,Ni代表某个分类下的数据点数,比如μ 1代表红点的中心,μ2代表蓝点的中心。 类均值点投影到w上的中心为: 如何判断向量w最佳?1、不同的分类得到的投影点要尽量分开;2、同一个分类投影后得到的点要尽量聚合。从这两方面考虑,可以定义如下公式: J(w)代表不同分类投影中心的距离,它的值越大越好。 上式称之为散列值(scatter matrixs),代表同一个分类投影后的散列值,也就是投影点的聚合度,它的值越小代表投影点越聚合。 上式是w的函数,值越大w降维性能越好,下面的问题就是求解使上式取最大值的w。 把散列函数展开: 可以发现除w和wT外,剩余部分可以定义为: 这就是原数据的散列矩阵了 Sw称为Within-class scatter matrix。 得到: 展开J(w)的分子并定义SB,SB称为Between-class scatter。 这样就得到了J(w)的最终表示: 上式求极大值可以利用拉格朗日乘数法,不过需要限定一下分母的值,否则分子分母都变,怎么确定最好的w呢。可以令 ,利用拉格朗日乘数法得到: 上式两边同乘以 可以得到: 发现w其实就是矩阵 的特征向量。 根据需求取前k个特征值最大的特征向量。 举例:64*64大小的20张人脸图片进行训练。 每一列表示一个样本,这样就一共有4096*20的待降维矩阵,然后对这个矩阵降维,请注意,如果采用列表示一个样本,那么获得的降维矩阵,是一个4096*19的矩阵,然后用这个降维矩阵对测试样本和训练样本降维,我们的测试样本是4096*1的矩阵,降维的时候这样: Y =UT* X ;   UT (对降维矩阵进行转置)为19*4096的矩阵, 19*4096 * 4096*1,就获得了19*1的降维后的数据。 降维会不会对性能造成影响。 并不是直接对原来的数据进行删减,而是把原来的数据映射到新的一个特征空间中继续表示,所有新的特征空间如果有19维,那么这19维足以能够表示非常非常多的数据,并没有对原来的数据进行删减,只是把原来的数据映射到新的空间中进行表示,所以你的测试样本也要同样的映射到这个空间中进行表示,这样就要求你保存住这个空间坐标转换

文档评论(0)

ctuorn0371 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档