二零二三年 优质公开课Sklearn库模型介绍.pptx

二零二三年 优质公开课Sklearn库模型介绍.pptx

  1. 1、本文档共10页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
Sklearn库模型介绍;1.掌握Sklearn模型库 2.掌握基础的Sklearn模型;1. Sklearn模型选择 2. Sklearn模型使用;Sklearn模型选择;在sklearn中,bagging用统一的BaggingClassifier元分类器提供。以用户指定的基学习器及制定划分随机子集的策略的参数作为输入,特别地,max_samples 和 max_features控制子集的尺寸,bootstrap和bootstrap_features控制是否抽出样本和特征。当使用可用样本的子集时,可以通过设置是否用包外样本来估计准确率oob_score=Ture,下面的代码说明了怎样用K近邻分类器的集成模型,每个基学习器建立在50%样本和50%特征的随机子集上。 ;sklearn.ensemble模块包括了两个基于随机决策树的averaging算法:randomForest和Extra-Trees。这两种算法都是专门为树设计的扰动组合技术。通过在分类器构造中引入随机性来创建一组不同的分类器。集成模型的预测是每个分类器的平均输出。 forest分类器必须配备两个矩阵:大小为[n_samples,n_features]的稀疏或密集矩阵X保存训练样本,大小为[n_samples]的矩阵Y保存训练样本的目标值 ;sklearn.ensemble模块包括了流行的提升算法,Adaboost。 Adaboost的核心原则是在数据的反复修改版本上适应一系列弱学习器(仅比随机猜测略好的模型,如小决策树),然后将所有这些预测通过加权多数表决(或总和)合并产生最终预测。在每一个提升迭代的数据修改由每个训练样本施加权重的W1,W2,……Wn组成。最初,这些权重都被设置为1/N,所以第一步只是训练弱学习器的原始数据。对于每个连续的迭代,样本权重被单独修改,并将学习算法重新应用于重新加权的数据。在给定的步骤,那些在前一步骤导致提升模型不正确预测的训练样本的权重增加,而正确预测的训练样本的权重则会降低。随着迭代的进行,难以预测的示例将会受到越来越大的影响。因此,每个随后的弱学习器强制关注先前的错误样本。 ;from sklearn.model_selection import cross_val_score from sklearn.datasets import load_iris from sklearn.ensemble import AdaBoostClassifier iris = load_iris() clf = AdaBoostClassifier(n_estimators=100) scores = cross_val_score(clf, iris.data, iris.target) scores.mean() ;1.掌握Sklearn模型的选择 2.理解Sklearn模型的使用

文档评论(0)

中小学K12教育 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档