Python数据分析与可视化教学ppt-数据分析理论与Python实战-Pandas与scikit-learn实现数据的分析.pptVIP

Python数据分析与可视化教学ppt-数据分析理论与Python实战-Pandas与scikit-learn实现数据的分析.ppt

此“教育”领域文档为创作者个人分享资料,不作为权威性指导和指引,仅供参考
  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第七章 Pandas与scikit-learn 实现数据地分析 目录 7.1 分类方法 7.2 回归方法 7.3 聚类方法 分类方法:Logistic回归 实现 sklearn.linear_model.LogisticRegression 支持 二分类(binary) 一对多分类(one vs rest) 多项式回归 可以选择L1或L2正则化 分类方法:Logistic回归 In [1]: import numpy as np from sklearn import linear_model,datasets In [2]: iris = datasets.load_iris() X = iris.data Y = iris.target In [3]: log_reg = linear_model.LogisticRegression() log_reg.fit(X,Y) Out [3]: LogisticRegression(C=1.0,class_weight=None,dual=False, fit_intercept=True,intercept_scaling=1,max_iter=100, multi_class=ovr,n_jobs=1,penalty=l2, random_state=None,solver=liblinear, tol=0.0001, verbose=0, warm_start=False) In [4]: log_reg.predict([1,2,3,4]) Out [4]: array([2]) LogisticRegression类中提供优化方案(solver字段选择): liblinear(默认) newton-cg lbfgs sag saga 分类方法:Logistic回归 logistic回归solver选择 Case Solver L1正则 “liblinear”,“saga” 多项式损失(multinomial loss) “lbfgs”,“sag”,“saga”“newton-cg” 大数据集(n_samples) “sag”,“saga” liblinear: 应用了坐标下降,基于C++库实现。 不是真正意义上地多分类模型,而是基于“one-vs-rest”思想,为每个类别训练了一个二元分类器。 lbfgs,sag与newton-cg: 只支持L2惩罚项,对某些高维数据收敛更快。 参数 `multi_class`设为“multinomial”即为真正地分类,其预测比liblinear更为准确。 sag: 基于平均随机梯度下降算法。 在大数据集上地表现更快,大数据集指样本量大且特征数多。 saga: sag地变体,它支持非平滑地L1正则选项penalty=l1。 对于稀疏多项式logistic回归效果较好。 分类方法:SVM 实现: sklearn.svm.SVC() sklearn.svm.NuSVC() sklearn.svm.LinearSVC() 区别: SVC与NuSVC比较接近,两者参数略有不同。 LinearSVC仅支持线性核函数地分类 分类方法:SVM In [1]: import numpy as np from sklearn import svm,datasets In [2]: iris = datasets.load_iris() X = iris.data Y = iris.target In [3]: clf1 = svm.SVC() clf2 = svm.NuSVC() clf3 = svm.LinearSVC() In [4]: clf1.fit(X,Y) Out [4]: SVC(C=1.0, cache_size=200, class_weight=None, coef0=0.0, decision_function_shape=None, degree=3, gamma=auto, kernel=rbf,max_iter=-1, probability=False, random_state=None, shrinking=True,tol=0.001, verbose=False) In [5]: clf2.fit(X,Y) Out [5]: NuSVC(cache_size=200, class_weight=None, coef0=0.0, decision_function_shape=None, degree=3, gamma=auto,

您可能关注的文档

文档评论(0)

173****0166 + 关注
实名认证
文档贡献者

临床医师执业资格证持证人

医学资料整理

领域认证该用户于2023年01月12日上传了临床医师执业资格证

1亿VIP精品文档

相关文档