.pegasos2013.3.pptVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
pegasos2013.3

二、次梯度的概念与应用 Experiments 3 datasets (provided by Joachims) Reuters CCAT (800K examples, 47k features) Physics ArXiv (62k examples, 100k features) Covertype (581k examples, 54 features) 4 competing algorithms SVM-light (Joachims) SVM-Perf (Joachims’06) Norma (Kivinen, Smola, Williamson ’02) Zhang’04 (stochastic gradient descent) Source-Code available online 收敛性分析 由定理1得到一个结论: 由凸函数的性质易知: 所以: 由结论1有: 用马尔可夫不等式 We do so by viewing T as a random index draw from {1,2,…T,…T^},where T^T. 由定理3得: 为得到更高的置信,运行算法s次,s大于 则得到 为得到至少 的可能性,有 : 所以要运行 次得到 个结果权重向量,其中至少有一个可以使精度达到 ,同时算法需要 个样本 两种极端情况: 迭代次数 迭代次数 * PEGASOS Primal Estimated sub-Gradient Solver for SVM 一、函数的凸性和光滑性 二、次梯度的概念与应用 三、Pegasos 内 容 Convex and strictly convex Strongly convex definition Logarithmic Regret Algorithms for Strongly Convex Repeated Games_2007 y 强凸是严格凸的充分条件,而非必要条件 Define in Convex Analysis and optimization expample 共轭函数 举例: 2 1 1 x The projection theorem 收敛性 Proof: 递归 选取步长 assume Then, 收敛性 其余步骤与前相似 增量投影次梯度 问题描述: Assume m=5 三、Pegasos 问题描述: 给定训练集 其中 求解f(w)的最小值 incremental 迭代步: 其中, At ? S of size k 由强对偶性质知w应满足: 其中: 详细证明过程见:Shai Shalev-Shwartz and Yoram Singer Logarithmic Regret Algorithms for Strongly Convex Repeated Games (对偶间隙为零) 投影: 如果: 则令 则令 如果: 即: i.e. 原点 投影点 L2球投影图解 *

文档评论(0)

rovend + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档