- 1、本文档共60页,可阅读全部内容。
- 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
- 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
图解深度学习知识
本文仅用于学术分享,如有侵权,联系删文处理。
吴恩达在推特上展示了一份由 TessFerrandez 完成的深度学习专项课
程信息图,这套信息图优美地记录了深度学习课程的知识与亮点。因
此它不仅仅适合初学者了解深度学习,还适合机器学习从业者和研究
者复习基本概念。这不仅仅是一份课程笔记,同时还是一套信息图与
备忘录。
从深度学习基础、卷积网络和循环网络三个方面介绍该笔记
深度学习基础
1. 深度学习基本概念
监督学习: 所有输入数据都有确定的对应输出数据,在各种网络架构
中,输入数据和输出数据的节点层都位于网络的两端,训练过程就是
不断地调整它们之间的网络连接权重。
左上: 列出了各种不同网络架构的监督学习,比如标准的神经网络
(NN )可 用 于 训 练 房 子 特 征 和 房 价 之 间 的 函 数 ,卷 积 神 经 网 络
(CNN )可用于训练图像和类别之间的函数,循环神经网络( RNN )
可用于训练语音和文本之间的函数。
左下: 分别展示了 NN、CNN 和 RNN 的简化架构。这三种架构的
前向过程各不相同, NN 使用的是权重矩阵(连接)和节点值相乘并
陆续传播至下一层节点的方式; CNN 使用矩形卷积核在图像输入上依
次进行卷积操作、滑动,得到下一层输入的方式; RNN 记忆或遗忘先
前时间步的信息以为当前计算过程提供长期记忆。
右上: NN 可以处理结构化数据(表格、数据库等)和非结构化数据
(图像、音频等)。
右下: 深度学习能发展起来主要是由于大数据的出现,神经网络的训
练需要大量的数据;而大数据本身也反过来促进了更大型网络的出
现。深度学习研究的一大突破是新型激活函数的出现,用 ReLU 函数
替换 sigmoid 函数可以在反 向传播中保持快 速的梯度下降过 程,
sigmoid 函数在正无穷处和负无穷处会出现趋于零的导数,这正是梯
度消失导致训练缓慢甚至失败的主要原因。要研究深度学习,需要学
会「idea—代码—实验— idea」的良性循环。
2. logistic 回归
左上: logistic 回归主要用于二分类问题,如图中所示, logistic 回
归可 以 求 解 一 张图 像 是 不 是 的问 题 ,其 中 图像是 输 入 (x ) ,
(1 )或非猫(0 )是输出。我们可以将 logistic 回归看成将两组数据
点分离的问题,如果仅有线性回归(激活函数为线性),则对于非线
性边界的数据点(例如,一组数据点被另一组包围)是无法有效分离
的,因此在这里需要用非线性激活函数替换线性激活函数。在这个案
例中,我们使用的是 sigmoid 激活函数,它是值域为( 0, 1 )的平滑
函数,可以使神经网络的输出得到连续、归一(概率值)的结果,例
如当输出节点为( 0.2, 0.8 )时,判定该图像是非猫( 0 )。
左下: 神经网络的训练目标是确定最合适的权重 w 和偏置项 b ,那这
个过程是怎么样的呢?
这个分类其实就是一个优化问题,优化过程的目的是使预测值 y hat
和真实值 y 之间的差距最小,形式上可以通过寻找目标函数的最小值
来实现。所以我们首先确定目标函数(损失函数、代价函数)的形
式,然后用梯度下降逐步更新 w 、b ,当损失函数达到最小值或者足够
小时,我们就能获得很好的预测结果。
右上: 损失函数值在参数曲面上变化的简图,使用梯度可以找到最快
的下降路径,学习率的大小可以决定收敛的速度和最终结果。学习率
较大时,初期收敛很快,不易停留在局部极小值,但后期难以收敛到
稳定的值;学习率较小时,情况刚好相反。一般而言,我们希望训练
文档评论(0)