Softmax回归精选.pdfVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
Softmax回归精选

Softmax回归 重庆大学 杨钰源 1. 引言 该模型是logistic回归模型在多分类问题上的推广,在多分类问题中,类 标签 可以取两个以上的值。Softmax 回归模型对于诸如MNIST手写数字分类 等问题是很有用的,该问题的目的是辨识10个不同的单个数字。Softmax 回归 是有监督的,后面也会介绍它与深度学习/无监督学习方法的结合。 在 logistic 回归中,训练集由 个已标记的样本构成: ,其中输入特征 。假定特征向 量 的维度为 ,其中 对应截距项 。 由于 logistic 回归是 针对二分类问题的,因此类标记 。假设函数(hypothesisfunction) 如下: 训练模型参数 能够使代价函数最小化。代价函数如下: 在 softmax回归中,解决的是多分类问题(相对于 logistic 回归解决的 二分类问题),类标 可以取 个不同的值 (而不是 2 )。因此,对于训练 集 ,我们有 。例如, 在 MNIST 数字识别任务中,有 个不同的类别。 对于给定的测试输入 ,用假设函数针对每一个类别 j估算出概率值 。也就是估计 的每一种分类结果出现的概率。因此,假设函数 将要输出一 维的向量(向量元素的和为1)来表示这 个估计的概率值。 具体地说,假设函数 形式如下: 其中 是模型的参数。 这一项对概率 分布进行归一化,使得所有概率之和为 1 。 为了方便起见,同样使用符号 来表示全部的模型参数。在实现Softmax 回归时,将 用一 的矩阵来表示会很方便,该矩阵是将 按行罗列起来得到的,如下所示: 2.Softmax代价函数 现在来介绍 softmax 回归算法的代价函数。在下面的公式中, 是示 性函数,其取值规则为: 值为真的表达式 , 值为假的表达式 。 Softmax代价函数为: logistic回归代价函数可以改为: 可以看到,Softmax代价函数与logistic 代价函数在形式上非常类似,只是 在Softmax损失函数中对类标记的 个可能值进行了累加。在Softmax 回归 中将 分类为类别 的概率为: . 对于 的最小化问题,目前还没有闭式解法。因此,使用迭代的优化算 法(例如梯度下降法,或 L-BFGS)。经过求导,得到梯度公式如下: 回顾一下符号 的含义。 本身是一个向量,它的第 个元 素 是 对 的第 个分量的偏导数。 有了上面的偏导数公式以后,就可以将它代入到梯度下降法等算法中,来最 小化 。 例如,在梯度下降法的标准实现中,每一次迭代需要进行如下更 新: ( )。 当实现 softmax 回归算法时, 通常会使用上述代价函数的一个改进版本。 具体来说,就是和权重衰减(weightdecay)一起使用。接下来介绍使用它的动机 和细节。 3.Softmax回归模型参数化的特点 Softmax 回归有一个不寻常的特点:它有一 “冗余”的参数集。为了便于 阐述这一特点,假设从参数向量

文档评论(0)

pfenejiarz + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档