sucai基础系列黄海广ai基础优化算法.pdfVIP

  • 8
  • 0
  • 约3.21万字
  • 约 39页
  • 2021-03-02 发布于北京
  • 举报
2020/1/13 AI基础:优化算法 AI基础:优化算法 机器学习初学者 [1] [2] 本文来源于吴恩达老师的深度学习课程 和深度学习课程 笔记部分。 作者:黄海广[3] 备注:笔记和作业(含数据、原始作业文件)、视频都在 github[4]中 。 导语 在学习机器学习的过程中我们发现,大部分的机器学习算法的本质都是建立优化模型,通过 最优化方法对目标函数(或损失函数)进行优化,从而训练出最好的模型,梯度下降是最基本 的优化算法。本集对梯度下降和其他优化算法进行讲解。 目前我在编写AI基础系列,目前已经发布: AI 基础:简易数学入门 AI 基础:Python开发环境设置和小技巧 AI 基础:Python 简易入门 AI 基础:Numpy 简易入门 AI 基础:Pandas 简易入门 AI 基础:Scipy(科学计算库) 简易入门 AI基础:数据可视化简易入门 (matplotlib和seaborn ) AI基础:机器学习库Scikit-learn 的使用 AI基础:机器学习简易入门 AI基础:机器学习的损失函数 AI基础:机器学习和深度学习的练习数据 … 1/39 2020/1/13 AI基础:优化算法 AI基础:特征工程-类别特征 AI基础:特征工程-数字特征处理 AI基础:特征工程-文本特征处理 AI基础:词嵌入基础和Word2Vec AI基础:图解Transformer AI基础:一文看懂BERT AI基础:入门人工智能必看的论文 AI基础:走进深度学习 AI基础:卷积神经网络 AI基础:经典卷积神经网络 AI基础:深度学习论文阅读路线 (127篇经典论文下载) AI基础:数据增强方法综述 后续持续更新 一 梯度下降 (Gradient Descent ) 1.1 梯度下降概述 梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数 的最小值。 梯度下降背后的思想是:开始时我们随机选择一个参数的组合 ,计算 代价函数,然后我们寻找下一个能让代价函数值下降最多的参数组合。我们持续这么 做直到找到一个局部最小值(local minimum ),因为我们并没有尝试完所有的参数 组合,所以 确定我们得到的局部最小值是否便是全局最小值(global minimum ),选择不同的初始参数组合,可能会找到不同的局部最小值。 … 2/39 2020/1/13 AI基础:优化算法 想象一下你正站立在山的这一点上,站立在你想象的公园这座红色山上,在梯度下降 算法中,我们要做的就是旋转360度,看看我们的周围,并问自己要在某个方向上,用 小碎步尽快下山。这些小碎步需要朝什么方向?如果我们站在山坡上的这一点,你看 一下周围,你会发现最佳的下山方向,你再看看周围,然后再一次想想,我应该从什 么方向迈着小碎步下山?然后你按照自己的判断又迈出一步,重复上面的步骤,从这 个新的点,你环顾四周,并决定从什么方向将会最快下山,然后又迈进了一小步,并 依此类推,直到你接近局部最低点的位置。 1.2 批量梯度下降 批量梯度下降(batch gradient descent )算法的公式为: 其 学习

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档