- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Stochastic Optimization Algor ithm i n Machine Learning
中文摘要
对于机器学习中的数值优化问题,考虑到其规模和维数都比较大,传统的方法难以高效的解决这一同题。近些年来,针对大规模的机器学习问题做了很多研究,比较币要的一类方法是随机算法。优化方法主要分为一阶梯度方法和二阶牛顿方法两大类,针对一阶方法的改进和研宄比较成熟和完善,一阶方法又可以分为两类,原始方法和对偶方法,原始方法比较有代表性的有G、G,、、SVRG,对偶方法有5乁和SYD〔:两种。此外,加速方法如Catal ”t、Katyusha,其收敛速度为一阶方法所能达到的最好结果。二阶方法目前是机器学习领域研宄的重要方向,其收敛速度要优于一阶方法,但是其实践中会有一些难度,比较实用的是L一BFGS方法及其随机算法的改进。
本文将详细全面的叙述机器学习中各种随机算法,介绍随机算法的发展历程,研究方向及研究热点,最后通过数值试验比较了几种常见随机算法,以给读者直观的数值效果,
关键词 .大规模机器学习,随机算法,优化方法
Abstract
For the optimization prOb1em in machine learning field, traditional method have difficulties in solving the high dimension and big data problem In recent years, there are many researches in large scale machine learning problems, especially stochastic algorithms. Generally, stochastic method can divided into two parts. One is first—order gradient method and the other is second— order Newton method. There is more improvement and research in first order rnethod, and the first order method is more mature and perfect, There are two classes for first order method. For the primal class, SVRG, SAG, SAGA is the representat ion, and SDCA, SPDC for dual class, Otherwise, the acceleration method such as catalyst and katyusha, which has the optimal con—vergence speed for first order method, is put forward in last two years. Second order method is one important research area, and it has better convergence but not better performance because it has to compute the hessian matrix, one useful method is L=BFGS and its variants.
In this paper, the author will introduce stochastic algori thins in machine learning area in detail. In the end, numerical experiments compare some common algorithm and give a direct view to readers.
Key Words Large—scale machine learning probl em, Stochastic a gori thm, Optimi zat ion method
11
1
Abstract 11
3, 2 Limited—memorvBFGS 近此年来,随着科学技术不断地进步发展,尤其是在计算机、通信等领域的进步以及互联网不断的普及。人们产生数据速率大大提高的同时又能够容易廉价地获取和存储数据。数据中蕴含是大量信息,但是如何在大量数据中发掘出有效的信息是一个很田难的问题。为了解决该问题,人们尝试采用各种方式。其中,比较好的处理方式是使用机器学习,数理统计的
您可能关注的文档
- 歌曲 In the End(Linkin Park)最终(中英文互译).doc
- 歌曲 Last Ride of the Day(Nightwish)夜愿的重金属狂潮(中英文互译).doc
- 歌曲 Lift Me Up(Rihanna)飞离深渊(中英文互译).doc
- 歌曲 Lonely Warrior(陈奕迅)孤勇者(中英文互译).doc
- 歌曲 Not Today(Imagine Dragons)不是今天(中英文互译).doc
- 歌曲 Nothing Is Lost (The Weeknd)一切皆可抛(中英文互译).doc
- 歌曲 Numb(Linkin Park)麻木(中英文互译).doc
- 歌曲 Old Time Rock & Roll(Bob Seger)旧日摇滚归来(中英文互译).doc
- 歌曲 One Day (Matisyahu)总有一天(中英文互译).doc
- 歌曲 Poker Face(Lady Gaga)扑克脸(中英文互译).doc
文档评论(0)