人工智能创新实验教程 课件 第7章 logistic回归算法.pptx

人工智能创新实验教程 课件 第7章 logistic回归算法.pptx

  1. 1、本文档共31页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多

宁夏大学第七章Logistic回归算法

Logistic回归算法www.islide.cc2目录

CONTENT01引言02算法概述03实验数据04算法实战05本章小结

01引言

引言在数据科学中,大约70%的问题属于分类问题,当数据科学家可能遇到一个新的分类问题时,他们想到的第一个算法就是Logistic回归。它是一种监督学习分类算法,用于预测离散类的观测值,是一种很常见的用来解决二元分类问题的回归方法,它主要是通过寻找最优参数来正确地分类原始数据实际上。它被用来将观测分为不同的类别。因此,其输出本质上是离散的。它是用于解决分类问题的最简单、直接和通用的分类算法之一。

02算法概述

算法概述1、基本概念逻辑回归(LogisticRegression,简称LR),其实是一个很有误导性的概念,虽然它的名字中带有“回归”两个字,但是它最擅长处理的却是分类问题。LR分类器适用于各项广义上的分类任务,例如:评论信息的正负情感分析(二分类)、用户点击率(二分类)、用户违约信息预测(二分类)、垃圾邮件检测(二分类)、疾病预测(二分类)、用户等级分类(多分类)等场景。我们这里主要讨论的是二分类问题。

算法概述?

算法概述1.2Sigmoid函数函数可以能接受所有的输入然后预测出类别。例如在二分类的情况下,函数能输出0或1。那拥有这类性质的函数称为海维赛德阶跃函数(Heavisidestepfunction),又称之为单位阶跃函数(如下图所示)?单位阶跃函数的问题在于:在0点位置该函数从0瞬间跳跃到1,这个瞬间跳跃过程很难处理(不好求导)。幸运的是,Sigmoid函数也有类似的性质,且数学上更容易处理。

算法概述Sigmoid函数公式:?下图给出了Sigmoid函数在不同坐标尺度下的两条曲线。当x为0时,Sigmoid函数值为0.5。随着x的增大,对应的函数值将逼近于1;而随着x的减小,函数值逼近于0。所以Sigmoid函数值域为(0,1),注意这是开区间,它仅无限接近0和1。如果横坐标刻度足够大,Sigmoid函数看起来就很像一个阶跃函数了。

算法概述1.3逻辑回归在统计学中,逻辑回归模型是一种广泛使用的统计模型,主要用于分类目的。这意味着,给定一组观测值,逻辑回归算法可以将这些观测值分为两个或多个离散类。因此,目标变量本质上是离散的。逻辑回归算法的工作原理是实现一个具有独立或解释变量的线性方程来预测响应值。例如,考虑学习的小时数和通过考试的概率。这里,研究的小时数是解释变量,用x1表示。通过考试的概率是响应或目标变量,用z表示。如果有一个解释变量(x1)和一个响应变量(z),那么线性方程将通过以下方程在数学上给出z=β0+β1x1。这里,系数β0和β1是模型的参数。如果存在多个解释变量,则上述方程可以扩展到z=β0+β1x1+β2x2+…+βnxn。这里,系数β0、β1、β2和βn是模型的参数。因此,预测响应值由上述方程给出,并用z表示。通过将线性模型和Sigmoid函数结合,可以得到逻辑回归的公式:这样y就是(0,1)的取值。

算法概述对式子进行变换,可得:二项Logistic回归:多项Logistic回归:

算法概述1.4决策边界sigmoid函数返回一个介于0和1之间的概率值。然后将该概率值映射到“0”或“1”的离散类。为了将该概率值映射到离散类(通过/失败、是/否、正确/错误),我们选择一个阈值。该阈值称为决策边界。高于此阈值时,我们将概率值映射到类1中,低于该阈值时,我们将概率值映射到类0中。从数学上讲,它可以表示为:? P≥0.5=class=1? p0.5=class=0通常,决策边界设置为0.5。因此,如果概率值为0.8(0.5),我们将把这个观察映射到类1。类似地,如果概率值为0.2(0.5),将把这个观察映射到类0。下图显示了这一点。

算法概述?

算法概述2.1梯度下降的直观解释首先来看看梯度下降的一个直观的解释。比如在一座大山上的某处位置,由于不知道怎么下山,于是决定走一步算一步,也就是在每走到一个位置的时候,求解当前位置的梯度,沿着梯度的负方向,也就是当前最陡峭的位置向下走一步,然后继续求解当前位置梯度,向这一步所在位置沿着最陡峭最易下山的位置走一步。这

文档评论(0)

lai + 关注
实名认证
内容提供者

精品资料

版权声明书
用户编号:7040145050000060

1亿VIP精品文档

相关文档