机器学习中的降维方法综述.docVIP

  • 18
  • 0
  • 约2.03千字
  • 约 3页
  • 2017-06-08 发布于重庆
  • 举报
机器学习中的降维方法综述

上海大学2014~2015学年春季学期研究生课程考试 文献阅读报告 课程名称: 模式识别与机器学习 课程编号: 07SBE9004 论文题目: 机器学习中的数据降维方法 研究生姓名: 廖 宇 学 号: 1座机电话号码 评语: 成 绩: 任课教师: 评阅日期: 机器学习中的数据降维方法 引言 随着科技的进步,尤其是数据采集和存储技术的飞速发展,不同行业和领域的数据如航天遥感数据,生物数据,网络数据以及金融市场交易数据等大量涌现,意味着大数据时代的来临。如何从复杂多样,变化迅速的大数据中有效地挖掘和提炼人类感兴趣的信息,成为了一个热门话题。 机器学习是近20多年兴起的一种从数据中自动分析获得规律,并利用规律对未知数据进行预测的算法其大量的应用都与大数据高度耦合,是一种十分适用于大数据环境下的算法。是最常用的线性降维方法,它的目标是通过某种线性投影,将高维的数据映射到低维的空间中表示,并期望在所投影的维度上数据的方差最大,以此使用较少的数据维度,同时保留住较多的原数据点的特性。 设n维向量w为目标子空间的一个坐标轴方向(称为映射向量),最大化数据映射后的方差,有: (1) 其中m是数据实例的个数, 是数据实例i的向量表达, 是所有数据实例的平均向量。定义W为包含所有映射向量为列向量的矩阵,经过线性代数变换,可以得到如下优化目标函数: , (2) 其中tr表示矩阵的迹, 3

文档评论(0)

1亿VIP精品文档

相关文档