网站大量收购独家精品文档,联系QQ:2885784924

神经网络和深度学习neural networks and deep-learning-zh.pdfVIP

神经网络和深度学习neural networks and deep-learning-zh.pdf

  1. 1、本文档共110页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
神经网络和深度学习neural networks and deep-learning-zh

null 目錄 1. Introduction 2. 第一章 使用神经网络识别手写数字 3. 第二章 反向传播算法如何工作的? 4. 第三章 改进神经网络的学习方式 5. 第五章 深度神经网络为何很难训练 6. 第六章 深度学习 null null 神经网络与深度学习 神经网络和深度学习是一本免费的在线书。本书会教会你 : 神经网络,一种美妙的受生物学启发的编程范式,可以让计算机从观测数据中进行学习 深度学习,一个强有力的用于神经网络学习的众多技术的集合 神经网络和深度学习目前给出了在图像识别、语音识别和自然语言处理领域中很多问题的最 好解决方案。本书将会教你在神经网络和深度学习背后的众多核心概念。 想了解本书选择的观点的更多细节,请看这里。或者直接跳到第一章 开始你们的旅程。 译者的话 : 本书是 Michael Nielsen 的 Neural Networks and Deep Learning 的中译本。目前已经完成第 二章、第五章和第六章的内容。后续会进行剩下章节的翻译。如果想要合作翻译,提供意见 或者建议,给出翻译的笔误,都可以直接通过 xhzhu.nju@ 联系到我。 null null First Chapter GitBook allows you to organize your book into chapters, each chapter is stored in a separate file like this one. null null 在上一章,我们看到了神经网络如何使用梯度下降算法来学习他们自身的权重和偏差。但 是,这里还留下了一个问题 :我们并没有讨论如何计算代价函数的梯度。这是很大的缺失 ! 在本章,我们会解释计算这些梯度的快速算法,也就是反向传播。 反向传播算法最初在 1970 年代被发现,但是这个算法的重要性直到 David Rumelhart、Geoffrey Hinton 和 Ronald Williams 的 1986年的论文 中才被真正认可。这篇论 文描述了对一些神经网络反向传播要比传统的方法更快,这使得使用神经网络来解决之前无 法完成的问题变得可行。现在,反向传播算法已经是神经网络学习的重要组成部分了。 本章在全书的范围内要比其他章节包含更多的数学内容。如果你不是对数学特别感兴趣,那 么可以跳过本章,将反向传播当成一个黑盒,忽略其中的细节。那么为何要研究这些细节 呢? 答案当然是理解。反向传播的核心是对代价函数 关于 (或者 )的偏导数 的计 算表示。该表示告诉我们在权重和偏差发生改变时,代价函数变化的快慢。尽管表达式会有 点复杂,不过里面也包含一种美感,就是每个元素其实是拥有一种自然的直觉上的解释。所 以反向传播不仅仅是一种学习的快速算法。实际上它还告诉我们一些细节的关于权重和偏差 的改变影响整个网络行为方面的洞察。因此,这也是学习反向传播细节的重要价值所在。 如上面所说,如果你想要粗览本章,或者直接跳到下一章,都是可以的。剩下的内容即使你 是把反向传播看做黑盒也是可以掌握的。当然,后面章节中也会有部分内容涉及本章的结 论,所以会常常给出本章的参考。不过对这些知识点,就算你对推导的细节不太清楚你还是 应该要理解主要的结论的。 热身 :神经网络中使用矩阵快速计算输出的观 点 在讨论反向传播前,我们先熟悉一下基于矩阵的算法来计算网络的输出。事实上,我们在上 一章的最后已经能够看到这个算法了,但是我在那里很快地略过了,所以现在让我们仔细讨 论一下。特别地,这样能够用相似的场景帮助我们熟悉在反向传播中使用的矩阵表示。 我们首先给出网络中权重的清晰定义。我们使用 表示从 层的 个神经元到 层的 个神经元的链接上的权重。例如,下图给出了第二隐藏层的第四个神经元到第 三隐藏层的第二个神经元的链接上的权重 : null null 这样的表示粗看比较奇怪,需要花一点时间消化。但是,后面你会发现这样的表示会比较方 便也很自然。奇怪的一点其实是下标 和 的顺序。你可能觉得反过来更加合理。但我接下 来会告诉你为什么要这样做。 我们对网络偏差和激活值也会使用类似的表示。显式地,我们使用 表示在 层 个神 经元的偏差,使用 表示 层 个神经元的激活值。下面的图清楚地解释了这样表示的 含义 : 有了

您可能关注的文档

文档评论(0)

allap + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档