- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
概述:本文介绍了梯度下降(gradientdescent)算法的基本概念和应用。首先介绍了如何解决优化问题。然后详细讨论了递归方法中的参数传递和优化过程,以及损失函数等高的线性方程组的求解。最后介绍了递归的方法进行梯度下降的过程,包括求导、迭代和更新等步骤。1.标题:总结介绍2.文章正文:-在第三步中,我们面临了一个优化问题,即计算两个变量{θ,θ}相关的梯度。这是一道非常经典的优化问题。-解决这个问题的关键在于找到两个变量之间的最优解,从而
Gradient Descent
Review: Gradient Descent
• In step 3, we have to solve the following optimization
problem:
∗ L: loss function : parameters
= argmin
Suppose that θ has two variables {θ , θ }
1 2
0
0 1 1 Τ1
Randomly start at = 0 =
2 2 Τ2
1 0 0 Τ1
1 1 1
= − 1 0 0
1 0 0 = −
2 2 2 Τ2
2 1 1 Τ1
1 1 1 2 1 1
2 = 1 − 1 = −
2 2 2 Τ2
Review: Gradient Descent
2 Gradient: Loss 的等高線的法線方向
0
Start at position 0
0 1
Compute gradient at 0
1 2
1 0 0
Move to = - η
2
Gradient
3 Compute gradient at 1
Movement
3 2 1 1
Move to = – η
您可能关注的文档
最近下载
- 中国河湖长江之永乐江.docx VIP
- 小学一年级上册立体图形的拼搭PPT课件.pptx VIP
- 《HarmonyOS鸿蒙应用开发》电子教案--项目5-05.doc VIP
- 2023会计年终工作述职报告7篇.docx VIP
- 2025市政公用工程管理与实务.doc VIP
- 金蝶k3 wise创新管理平台plm v研发操作手册.pdf
- 海南大学《线性代数C》2022-2023学年第二学期期末试卷C卷及答案.pdf VIP
- 4.2.2.1乡镇卫生院医疗质量管理标准制度.docx VIP
- 华为HCIE-Routing&Switching实验手册V3.0.docx VIP
- 2025四川事业单位《综合知识》试题(+答案解析).docx VIP
原创力文档


文档评论(0)