网站大量收购独家精品文档,联系QQ:2885784924

矩阵分解在推荐系统中的应用1.pdf

  1. 1、本文档共38页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
矩阵分解在推荐系统中的应用1

矩阵分解在推荐系统中的应用(1) 重庆大学余俊良 摘 要 • 线性代数基础知识 • 奇异值分解 • 梯度下降算法 • 一般矩阵分解 • 非负矩阵分解 • 上下文感知的矩阵分解 • 融合社会化信息的矩阵分解 • 实验分析 特征值与特征向量 对于M ×M 的方阵C 及非零向量 ,有C = λ 。 满足上式的λ 被称为矩阵C 的特征值(eigenvalues )。 对于特征值λ ,满足等式的M维非零向量 称为其特 征向量(eigenvector )。对应最大特征值的特征向 量被称为主特征向量 (principal eigenvector ) 等式可以改写成(C −λ E) = 0 (这个等式称为特征方 程(characteristic equation ),可以通过求解这个方 程来得到矩阵的特征值。 特征值与特征向量 令S 为M ×M 的实方阵,并且它有M个线性无关的特 征向量,那么存在一个特征分解: 其中,U 的每一列都是S 的特征向量,Λ 是按照特征 值从大到小排列的对角阵,即: 线性映射与矩阵 在数学中,线性映射(也称线性变换)是在两个向量空间之间 的函数,它保持向量加法和标量乘法的运算。 线性的定义如下: 设V 和W 是在相同域K 上的向量空间。函数f : V → W 被称为 是线性映射,如果对于V 中任何两个向量x 和y 与K 中任何标 量a,满足下列两个条件: 可加性: + = + () 齐次性: = 这等价于要求对于任何向量x , ..., x 和标量a ,..., a ,方程 1 m 1 m 成立。 线性映射与矩阵 如果V 和W 是有限维的,并且在这些空间中有选择好 的基,则从V 到W 的所有线性映射可以被表示为矩阵; 如果A 是实数的m ×n矩阵,则规定f(x)=Ax描述一个线 性映射Rn → Rm 。 简单来说就是,线性映射可以用矩阵-向量乘法表示。 在线性映射中,可以把N维向量投影到M维向量,N可以 不等于M. 当N==M时,也就是定义中的自同态映射. 特征向量与特征值在自同态的情况下产生.即N维到N 维的映射. 线性映射与矩阵 看下面几个二维空间自同态映射的例子. 逆时针旋转90 度 逆时针旋转θ 度: 针对x轴反射 在所有方向上放大2 倍 挤压 向y轴投影 线性映射与矩阵 一个矩阵就是一个线性映射的描述,因为一个矩阵 乘以一个向量后得到的向量,其实就相当于将这个 向量进行了线性变换。 线性映射与矩阵 从前面的例子可以看到,矩阵对应了一个变换,是把 任意一个向量变成另一个方向或长度不同的新向量。 在这个变换的过程中,原向量主要发生旋转、伸缩的 变化。如果矩阵对某一个向量或某些向量只发生伸缩 变换,不对这些向量产生旋转的效果,那么这些向量 就称为这个矩阵的特征向量,伸缩的比例就是特征值。 特征值与特征向量的意义 在数学上,特别是线性代数中,对于一个给定的线性变 换,它的特征向量V经过这个线性变换后,得到的新向 量仍然与原来的V保持在同一条直线上,但其长度也 许会改变.一个特征向量的长度在该线性变换下缩放 的比例称为其特征值. 对于特征向量,

文档评论(0)

dajuhyy + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档