海外TMT行业中期策略:AI算法教学相长,顶级会议百舸争流.docxVIP

海外TMT行业中期策略:AI算法教学相长,顶级会议百舸争流.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
若出现排版错位,数据显示不全等问题,可加微信535600147,凭下载记录获取PDF版目录 HYPERLINK \l _TOC_250016 ICLR 素有深度学习顶会“?冕之王”之称,2018 接收论?数量最多机构是?歌 4 HYPERLINK \l _TOC_250015 对现有算法的改进仍然是重点 4 HYPERLINK \l _TOC_250014 逻辑、抽象概念学习也出现越来越多的成果 5 HYPERLINK \l _TOC_250013 优化?法仍在讨论和快速进步 5 HYPERLINK \l _TOC_250012 尝试开拓深度学习的新领域 5 HYPERLINK \l _TOC_250011 有不少研究安全的论?,但?向较为集中 6 HYPERLINK \l _TOC_250010 ?歌:?歌和 DEEPMIND 加起来就占了会议总接收论?的 20%,具有绝对的影响? 6 HYPERLINK \l _TOC_250009 ADAM 的指数移动平均值如何导致?法收敛 6 HYPERLINK \l _TOC_250008 ADAM 的变体 AMSGRAD 6 HYPERLINK \l _TOC_250007 微软:最新研究成果探索出?种新的让机器学会自动化教学的?法 7 HYPERLINK \l _TOC_250006 阿里巴巴:神经?络的多比特量化压缩加速问题 10 HYPERLINK \l _TOC_250005 ?校:巨擘以外孕育创新之地 15 HYPERLINK \l _TOC_250004 ?个既具表达性,又符合内置的球形旋转不变性等相关定义的球形 CNN 15 HYPERLINK \l _TOC_250003 基于梯度的元学习?法,能用于动态和竞争环境下的连续适应 16 HYPERLINK \l _TOC_250002 ??智能?计算:计算硬件以及深度学习的平台系统 18 HYPERLINK \l _TOC_250001 硬件芯片?案 18 HYPERLINK \l _TOC_250000 深度学习的平台和系统 20图表目录图 表 1:AMSGRAD 算法 7图 表 2:AMSGRAD 和 ADAM 比较 7图表 3:L2T 的训练过程 9图表 4:MNIST 上的 MLP 训练,CIFAR-10 上的 RESNET-32 训练,并将其应用于 CIFAR-10 上的 RESNET-110 训练 9图表 5:使用不同教学策略训练 LSTM 得到的 IMDB 数据集分类准确率 10图表 6:多比特量化乘法示意 11图表 7:当实系数固定时,最优 2 比特编码示意 12图表 8:?叉搜索树将 次比较降为 K 次比较 13图表 9:CPU 中?值乘法与全精度乘法的时间比较 14图表 10:用旋转来代替原来的 FILTER 变换 15图表 11:MAML 概率模型等 17图表 12:META-LEARNING 算法等 17图表 13:智能体在 ROBOSUMO 游戏比赛 18图表 14: CPU 和 GPU 的不同架构 19图表 15: CPU 的延迟型设计 19图表 16: GPU 的面向对象设计 19图 表 17: ? 歌 TPU 架构 20图表 18: 深度学习主要市场参与者及开源平台 21ICLR 素有深度学习顶会“?冕之王”之称,2018 接收论?数量最多机构是?歌来自加州?学伯克利分校的 Sergey Levine 被接收论?数量最多;学者 Bengio提交论?数量最多;?歌的接收和提交论?数量都属机构第?;英伟达的接收率 排名第?;提交和被接收论?数量,英国都独占鳌头;中国是继英国之后,提交 论?数量最多的国家。?歌、DeepMind、Facebook、OpenAI、微软,这 5 个科技公司在今年 ICLR 中共贡献了 9 篇 oral(?头报告)论?和 107 篇 poster(海报展示)论?,在会议接受论?总数的 23 篇 oral、314 篇 poster 中已经占据了接近半壁江?。(?歌、FB、微软重点在于其中的??智能研究机构:?歌?脑/?歌 AI,Facebook ??智能研究院,微软研究院)每家机构的数量?面,DeepMind 22 篇、?歌 47 篇、Facebook 25 篇、OpenAI 7 篇、微软 15 篇。?歌和 DeepMind 加起来就占了会议总接收论?的20%,可以说是具有绝对的影响?了。强化学习是今年??研究热点,不仅 DeepMind 依旧把强化学习作为重要研究对象,其它研究机构也在强化学习?面有许多研究,以及把强化学习作为?具, 研究其它领域的问题。这 106 篇论?中有 20 篇左右是关于强化学习的。去年?热的 GANs 今年则热度有所下

您可能关注的文档

文档评论(0)

535600147 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

版权声明书
用户编号:6010104234000003

1亿VIP精品文档

相关文档