网站大量收购独家精品文档,联系QQ:2885784924

人工神经网络_深度学习.ppt

  1. 1、本文档共54页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
人工神经网络及其应用 第七讲深度学习 主讲人:方涛 第七讲深度学习 主讲内容 §7.1研究背景 §7.2从BP网络看深度学习 §7.3几种典型的深度学习模型 §7.4开源深度学习框架 §7.5深度学习的未来 571研究背景 2016年--人工智能 (AI)莫基60周年 约翰·麦卡锡(1927-201) sP之父一不走寻常路的常识逻辑学家 1956年,约翰麦卡锡召集了一次会议来讨论人工智能末来的发展 方向,开启了A的发展 21世纪初,深度学习”的出现,A研究获得了长足的进步 没有大数据,没有“大计算”,就没有人工智能的今天! 571研究背景 Marvin Minsky 人工智能之父和框架理论的创立者 MIT ALLab创始人之 1970年获得图灵奖 美国工程院和美国科学院院士 1969: Perceptron(感知器)--神 经网络的局限性(深度学习的前身 在近60年的人工智能历史中,马文明斯 基一直是一位闪耀着耀眼光彩的杰出的 人工智能权威,是当之无愧的人工智能」 父。(李德毅院士) 1927-2016 明斯基在1950年进入普林斯顿大学攻读数学系的博士硏究生学位,比我晚一 年。我们很快意识到,我们两人都对人王智能很感兴趣。事实上,当时明斯 基已经对如何实现人工智能颇有想法了,这一点在之后他设计和建造的世界 上第一个神经网络模拟器 Snare上得到了证实 John McCarthy人工智能先驱,LISP语言之父,图灵奖获得者) 57I研究背景 2016年阿尔法狗( Alpha Go)4:1大胜 围棋9段李世石高手,AI重大历史时刻 主要设计者--位于伦敦 Google旗下 DeepMind公司 大卫·席尔瓦( David Silver)-剑桥大学计算 :机科学学士,顾士,加拿大间尔伯塔大学计算机科 「学博士 黄士杰( Aia huang),台澚交通大学计算机科学学一 士,台湾师范大学计算机科学硕士 和博士,加拿大 可尔伯塔大学计算机科学博士后 “监督学习的策略网络( Policy Network) 通过13层全连接网络,反复训练围棋棋盘布局,调整参数,以最 佳概率预测落子选择( Move picker),如何下棋子 “价值网络( Value network) 给定棋子位置,预测每一个棋手赢棋的可能,就是计算局面 57I研究背景 专注于神经网络几十年 1985年,提出 Boltzmann机 1986年,提出受限Bo| tzmann机、BP算法 2006年,提出神经网络进行降维 开启了深度学习时代,并在随后的 mageNet 图片识别的比赛,取得了非常有说服力的结果一 Geoffrey-. Hinton(74%-85%),震撼了学术界 加拿大多伦多大学教授 Q Hinton, G and salakhutdinov, R(2006).Reducing the dimensionality of data with neural networks. Science, 3B3( 9 Hinton, G. E (2002). Training products of experts by minimizing contrastive divergence Neural Comp., 14(8): 1771-1800 Q Hinton, G. E, Dayan, P, Frey, B.J., and Neal, R. M. (1995). The wake-sleep._ algorithm for unsupervised neural-networks. Science, 268: 1158-1160 Q Hinton, G. E and Sejnowski, T.E. (1986). Learning and relearning in Boltzmann machines. In Parallel Distributed Processing, volume I, pages 282-317. MIT Press o Rumelhart, Hinton, Williams, Learning Representations by Back-propagating errors, Nature,1986,323(6088):533-536 57I研究背景 2012年6月,《纽约时报》披露了 Andrew n Google brain.项目 斯坦福大学教授 用16000个 CPU Corel的并行计算平台训练一种称为“深度 大规模计算机系统方神经网络”(DNN, Deep Neural Networks)的机器学 面的世界顶尖专家 习模型(内部共有10亿个节点) -effDean 在语音识别和图像识别等领获得了巨大的成功

文档评论(0)

bokegood + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档