机器学习平台汇报终稿.pptxVIP

  1. 1、本文档共32页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
机器学习平台汇报 Jone 提纲 基础准备 CTR平台 凸函数优化 MPI基础 BSP Batch Learning 原理 评测 Checkerboard Incremental Learning 原理 评测 后续方向 CTR平台 MPI Massage Passing Interface:是消息传递函数库的标准规范,由MPI论坛开发,支持Fortran和C MPI是一种标准或规范的代表,而不是特指某一个对它的具体实现 MPI是一种消息传递编程模型,并成为这种编程模型的代表和事实上的标准 MPI有丰富的接口提供实时的点对点、Group对Group、点和Group进行数据交互的API 目前主流使用的有Mpich2和OpenMPI MPI P0 P0 P1 P2 data processor MPI p0 p1 p2 p3 p0 p1 p2 p3 k=m/p p0 p1 p2 p3 Layout 向量按照节点进行分割,矩阵采用row shards的方式存储 加速比 不算All Reduce的开销,加速比是Processor数目 MPI支持 P是进程单位,Mpich2最新版本支持同一个Node启动多个P BSP Bulk synchronous parallel: BSP was developed by?Leslie Valiant?during the 1980s A BSP computation proceeds in a series of global?supersteps. A superstep consists of three ordered stages: 1) Concurrent computation: local data, independent, asynchronously? 2) Communication: At this stage, the processes exchange data between themselves. 3) Barrier synchronization: When a process reaches this point 1) No deadlock and data races 2) Barrier permit novel forms of fault tolerance 3) Parallel graph-processing-Pregel Parallel DS Local Vector Parallel Vector a[0] a[N-1] P0 A a[0] a[N-1] P0 P1 P2 P3 bool CreateVector(Comm,GlobalSize,LocalSize,*Vector) bool VectorSet(*Vector,double) double Dot(Vec*, Vec *) double VectorNorm(Vec *,NormType,double*) AXPY AYPX…… A Class Vector 逻辑抽象和物理存储分开 存储和计算都并行 通信量很少 凸函数优化 假设 f(x)有二阶连续偏导: Example: FindMinimumPlot[Cos[x^2 - 3 y] + Sin[x^2 + y^2],{{x,1},{y,1}}] 优化的方法: 1) 最速下降法 2) NewTon法 3) Qusai-NewTon法 4) BFGS方法 5) OWLQN 所有上述方法的核心:f的一阶导数——梯度,二阶导数——Hessian {{-2.,{x = 1.37638,y = 1.67868}},{Steps = 9,Function = 13,Gradient = 13} 凸函数优化 OWLQN或者说LBFGS不存储Hessian矩阵,而是存储以前迭代的梯度信息,直接计算搜索方向 S,Y中存储前m次迭代的信息 使用two-loop recursion方法直 接计算搜索方向 内部向量有60个Dense Vector的向量 1亿的Feature的内部存储需要48G数据 存储:训练数据如何存储? CPU:内部有大量超高纬向量的运算 Batch Learning VS Online Learning Online algorithms operate by repetitively drawing a fresh random example and adjusting the parameters on the basis of th

文档评论(0)

1112111 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档