斯坦福大学公开课 :机器学习课程note2翻译.docxVIP

  • 4
  • 0
  • 约6.58千字
  • 约 11页
  • 2016-12-17 发布于贵州
  • 举报

 斯坦福大学公开课 :机器学习课程note2翻译.docx

Part IVGenerative Learning algorithms生成学习算法到现在为止,我们已经学习关于模型、y关于x的条件分布学习算法。例如:回归分析模型的是应用,g是激活函数。在本节中,我们将会学习到一些不一样类型的学习算法。思考一个分类问题我们想要把大象(y=1)和狗(y=0)识别出来基于一些动物的特征.给定一个训练集,一个类似于逻辑回归的算法或者感知计算法试图找到一条直线-----一个判定边界----去区分大象和狗。然后,去分类一个动物既不是大象也不是狗,这个算法核实这个动物是在这个判定边界的哪一边,并且给出他相应的预测是大象或者是狗。这里有一个不一样的方法。首先,对于大象,我们能建立一个什么是大象的模型。然后对于狗,我们能建立一个单独的模型对于什么是狗。最后,去识别一个新的动物,我们会拿这个动物去和大象的模型对比,然后再去和狗的模型去对比,看这个新的动物是像大象多一些还是像狗多一些在我们的训练集中。算法试图直接去得到一个函数P(y|x)(像逻辑回归那样)或者算法试图去直接从输入x到标签{0,1}建立一个映射(像感知机算法一样)都叫做区别学习算法。这里,我们将要学习一个算法不是去建立一个函数P(x|y)。这些算法被叫做生成学习算法。例如,如果y的值表示一个样本是狗或者大象,那么p(x|y=0)代表狗的特征的分布p(x|y=1)代表着大象的特征的分布。建立模型p(y

文档评论(0)

1亿VIP精品文档

相关文档