机器学习算法之一:Logistic-回归算法的优缺点.docxVIP

机器学习算法之一:Logistic-回归算法的优缺点.docx

  1. 1、本文档共8页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  5. 5、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  6. 6、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  7. 7、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  8. 8、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多

??

?

??

机器学习算法之一:Logistic回归算法的优缺点

?

??

?

?

?

?

?

?

?

???

?

?

?

?

?

?

?

LogisTIc回归是二分类任务中最常用的机器学习算法之一。它的设计思路简单,易于实现,可以用作性能基准,且在很多任务中都表现很好。

因此,每个接触机器学习的人都应该熟悉其原理。LogisTIc回归的基础原理在神经网络中也可以用到。在这篇文章中,你将明白什么是LogisTIc回归、它是如何工作的、有哪些优缺点等等。

什么是LogisTIc回归?

和很多其他机器学习算法一样,逻辑回归也是从统计学中借鉴来的,尽管名字里有回归俩字儿,但它不是一个需要预测连续结果的回归算法。

与之相反,Logistic回归是二分类任务的首选方法。它输出一个0到1之间的离散二值结果。简单来说,它的结果不是1就是0。

癌症检测算法可看做是Logistic回归问题的一个简单例子,这种算法输入病理图片并且应该辨别患者是患有癌症(1)或没有癌症(0)。

它是如何工作的?

Logistic回归通过使用其固有的logistic函数估计概率,来衡量因变量(我们想要预测的标签)与一个或多个自变量(特征)之间的关系。

然后这些概率必须二值化才能真地进行预测。这就是logistic函数的任务,也称为sigmoid函数。Sigmoid函数是一个S形曲线,它可以将任意实数值映射到介于0和1之间的值,但并不会取到0/1。然后使用阈值分类器将0和1之间的值转换为0或1。

下面的图片说明了logistic回归得出预测所需的所有步骤。

下面是logistic函数(sigmoid函数)的图形表示:

我们希望随机数据点被正确分类的概率最大化,这就是最大似然估计。最大似然估计是统计模型中估计参数的通用方法。

你可以使用不同的方法(如优化算法)来最大化概率。牛顿法也是其中一种,可用于查找许多不同函数的最大值(或最小值),包括似然函数。也可以用梯度下降法代替牛顿法。

Logistic回归vs线性回归

你可能会好奇:logistic回归和线性回归之间的区别是什么。逻辑回归得到一个离散的结果,但线性回归得到一个连续的结果。预测房价的模型算是返回连续结果的一个好例子。该值根据房子大小或位置等参数的变化而变化。离散的结果总是一件事(你有癌症)或另一个(你没有癌症)。

优缺点

Logistic回归是一种被人们广泛使用的算法,因为它非常高效,不需要太大的计算量,又通俗易懂,不需要缩放输入特征,不需要任何调整,且很容易调整,并且输出校准好的预测概率。

与线性回归一样,当你去掉与输出变量无关的属性以及相似度高的属性时,logistic回归效果确实会更好。因此特征处理在Logistic和线性回归的性能方面起着重要的作用。

Logistic回归的另一个优点是它非常容易实现,且训练起来很高效。在研究中,我通常以Logistic回归模型作为基准,再尝试使用更复杂的算法。

由于其简单且可快速实现的原因,Logistic回归也是一个很好的基准,你可以用它来衡量其他更复杂的算法的性能。

它的一个缺点就是我们不能用logistic回归来解决非线性问题,因为它的决策面是线性的。我们来看看下面的例子,两个类各有俩实例。

显然,我们不可能在不出错的情况下划出一条直线来区分这两个类。使用简单的决策树是个更好的选择。

Logistic回归并非最强大的算法之一,它可以很容易地被更为复杂的算法所超越。另一个缺点是它高度依赖正确的数据表示。

这意味着逻辑回归在你已经确定了所有重要的自变量之前还不会成为一个有用的工具。由于其结果是离散的,Logistic回归只能预测分类结果。它同时也以其容易过拟合而闻名。

何时适用

就像我已经提到的那样,Logistic回归通过线性边界将你的输入分成两个「区域」,每个类别划分一个区域。因此,你的数据应当是线性可分的,如下图所示的数据点:

换句话说:当Y变量只有两个值时(例如,当你面临分类问题时),您应该考虑使用逻辑回归。注意,你也可以将Logistic回归用于多类别分类,下一节中将会讨论。

多分类任务

现在有很多多分类算法,如随机森林分类器或朴素贝叶斯分类器。有些算法虽然看起来不能用于多分类,如Logistic回归,但通过一些技巧,也可以用于多分类任务。

我们从包含手写体0到9的数字图像的MNIST数据集入手,讨论这些最常见的「技巧」。这是一个多分类任务,我们的算法应该告诉我们图像对应哪个数字。

1.一对多(OVA)

按照这个策略,你可以训练10个二分类器,每个数字一个。这意味着训练一个分类器来检测0,一个检

文档评论(0)

173****5949 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档