网站大量收购独家精品文档,联系QQ:2885784924

深度学习案例教程 课件 第5章 目标检测.pptx

深度学习案例教程 课件 第5章 目标检测.pptx

  1. 1、本文档共92页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

目标检测第五章

01理解图像分类、目标检测和实例分割的关系学习目标CONTENTS

01理解图像分类、目标检测和实例分割的关系02掌握传统方法在目标检测领域的应用学习目标CONTENTS

01理解图像分类、目标检测和实例分割的关系02掌握传统方法在目标检测领域的应用03了解深度学习中目标检测和实例分割的基本原理学习目标CONTENTS

01理解图像分类、目标检测和实例分割的关系02掌握传统方法在目标检测领域的应用03了解深度学习中目标检测和实例分割的基本原理04熟悉R-CNN、FastR-CNN、FasterR-CNN和MaskR-CNN模型的工作原理学习目标CONTENTS

01提高自主学习能力,通过阅读相关文献和实践操作来提高自己的专业素养素质目标CONTENTS

01提高自主学习能力,通过阅读相关文献和实践操作来提高自己的专业素养02增强团队协作意识,与他人分享所学知识,共同进步素质目标CONTENTS

01提高自主学习能力,通过阅读相关文献和实践操作来提高自己的专业素养02增强团队协作意识,与他人分享所学知识,共同进步03提高解决问题的能力,能够独立分析和解决实际问题素质目标CONTENTS

使用Pytorch实现行人的目标检测使用Pytorch实现行人的实例分割实践任务

第一节梯度下降法基于梯度的优化就是优化一个函数的最终取值。假设θ是函数的输入参数,f(θ)是需要优化的函数,那么基于梯度的优化是指改变θ以得到最小或最大的f(θ)。梯度下降算法是指沿着函数值下降变化最快的方向,改变θ而获得更小的f(θ)的技术。梯度下降法描述

第一节梯度下降法梯度下降的过程类似于下山的过程,我们找到一个最陡峭的方向,从此方向下山,下到山腰的某一点,又开始新的搜索,寻找另一个更加陡峭的方向,从那个更加陡峭的地方下山,不断重复这个过程,直到成功抵达山脚下。梯度下降法描述

把整个样本切分为若干份,然后在每一份样本上实施梯度下降算法进行参数更新。批量梯度下降算法梯度下降法指每个批量只有一个样本,并且只在这一个样本上实施梯度下降算法进行参数更新。采取SGD,虽然模型训练起来更灵活,但坏处是算法很难收敛,由于每次只处理一个样本,效率很低。随机梯度下降算法一个理想的情形是纵轴的震荡减少,即学习变慢,而横轴的学习加快。批量梯度下降算法的改进有三种,分别是动量梯度下降算法、均方根加速算法和自适应矩估计算法。批量梯度下降算法的改进第一节梯度下降法

批量梯度下降算法(BatchGradientDescent,BGD),就是把整个样本切分为若干份,然后在每一份样本上实施梯度下降算法进行参数更新。假设有10万个样本,随机排序后,按照5000大小切分成20份,每一份称为一个批量(Batch),在每一个Batch上计算梯度并优化,这样网络的训练效率会大大提高。批量梯度下降算法第一节梯度下降法

随机梯度下降算法(StochasticGradientDescent,SGD),是指每个批量只有一个样本,并且只在这一个样本上实施梯度下降算法进行参数更新。采取SGD,虽然模型训练起来更灵活,但坏处是算法很难收敛,由于每次只处理一个样本,效率很低。随机梯度下降算法第一节梯度下降法

梯度下降、批量梯度下降与随机梯度下降算法之间的联系与区别:联系:都是基于梯度下降算法的策略。区别:执行一次计算所需的样本量不同。联系与区别第一节梯度下降法

无论是批量梯度下降,还是随机梯度下降,都无法避免在纵轴上的震荡问题。一个理想的情形是纵轴的震荡减少,即学习变慢,而横轴的学习加快。批量梯度下降算法的改进第一节梯度下降法

(1)动量梯度下降(GradientDescentwithMomentum)算法:考虑了历史梯度的加权平均作为速率进行优化的方法。批量梯度下降算法的改进第一节梯度下降法

(1)动量梯度下降(GradientDescentwithMomentum)算法:考虑了历史梯度的加权平均作为速率进行优化的方法。(2)均方根加速(RootMeanSquareProp,RMSProp)算法:指对历史梯度加权时,对当前梯度取了平方,并在参数更新时,让当前梯度对历史梯度开根号后的值做了除法运算。批量梯度下降算法的改进第一节梯度下降法

(1)动量梯度下降(GradientDescentwithMomentum)算法:考虑了历史梯度的加权平均作为速率进行优化的方法。(2)均方根加速(RootMeanSquareProp,RMSProp)算法:指对历史梯度加权时,对当前梯度取了平方,并在参数更新时,让当前梯度对历史梯度开根号后的值做了除法运算。(3)自适应矩

文档评论(0)

lai + 关注
实名认证
内容提供者

精品资料

版权声明书
用户编号:7040145050000060

1亿VIP精品文档

相关文档