决策树算法下的大学生公共体育教学与评价分析.docxVIP

决策树算法下的大学生公共体育教学与评价分析.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
决策树算法下的大学生公共体育教学与评价分析 高校公共体育实践教学是学习体育知识和掌握技能的有效方式,能有效增强学生体质,提高学生身体素质。随着高校教育体质改革的实施,公共体育教学观念、教学内容和手段都在不断发生改变。因此,对高校体育课堂教学进行评价,了解影响体育课堂教学质量影响因素,从而有针对性的进行教学改良,提升课堂教学水平,具有重要意义。数据挖掘作为当前热门的研究领域,通过在大量数据中来提取未知的、潜在的、有应用价值的信息,来为个行业的发展和决策提供重要的参考依据。决策树算法作为数据挖掘中的一个重要技术手段,融合了机器学习、数据统计、智能数据库、神经网络等技术,通过算法对相关影响因素的潜在数据进行进行挖掘,为教育管理和决策提供现代教学评价数据库理想模型。如通过考虑各影响体育教学的因素来构建决策树,实现对影响指标的综合评价,并有针对性性的给出提升教学质量的解决方案;如基于ID3决策树的商务英语实践成效评价,进行考试成绩的管理和分析,由此针对性的提出课程内容改进和教学内容评估等,有效推进教学质量评价管理,提升教学质量。基于此,本文通过将决策树引入大学公共体育教学评价中,对教学质量评价指标进行有效挖掘,发现其中的不合理性并进行改进,实现教学质量和管理水平的提升。 1决策树技术基本原理 1.1数据挖掘 数据挖掘是从海量数据中提取或挖掘识别有效的、新颖的、潜在的信息和知识的过程。它利用数据库关系系统查询、检索功能,结合统计分析处理,得出可供决策参考的统计分析数据。决策树技术作为数据挖掘方法中一种常见的信息论方法,通过对数据进行分类,以达到预测的目的。 决策树是一棵有向、无环树,决策树由决策节点、分支和叶子组成。树上的每一个内部节点均表示一个测试点,树的分支对应一个测试输出,树叶节点则为一個代表类分布。在通过决策树进行数据分类过程中,首先需要对获得的数据训练集进行分析测试,根据获得的数据类别建立待解决问题的数据分类模型,然后根据建立的决策树对未知数据分类。作为一类贪心算法,决策树数据挖掘是一种自顶向下的递归算法,有决策树的根节点开始,根据获得的样本数量对集中属性逐一测试,并通过属性类别对数据训练集分类,获得若干字训练集,其中每个子训练集作为一个非叶节点,进行递归循环执行,直到满足设定条件后,形成树的叶子节点,终止计算。在建立决策树的过程中,由于数据集中存在噪声的干扰,因此,形成的分枝反映出训练集中存在的异常情况,容易造成数据的拟合过度问题,因此就需要对构建的决策树进行修剪,去掉存在的异常分支,保证分类结果的准确性。 对于决策树每个节点,每个决策节点表征一个问题或决策,对应待分类对象属性,每一个叶子代表可能存在的分类结果。沿决策树由上而下遍历,通过对每个结点进行测试,将各节点上的测试输出结果构成不同分支,最后由某一途径传输到一个叶子节点。在这个过程中可利用若干变量来判定所属类别。目前用于决策树技术的算法主要为ID3算法以及C4.5算法。由于C4.5算法在缺省状态下存在缺陷,因此本文选择采用ID3算法进行数据的分类和预测。 1.2ID3算法流程 ID3算法作为决策树算法中最典型的算法,通过信息增益检验决策树各级节点上数据的特征属性,选择信息增益最大属性作为样本划分测试属性,根据属性不同值建立分支,由各分支实例子集递归方式来建立决策树下一级节点和分支,指导该子集实例被划分为某一个类别。 在ID3算法中, 设S为训练集,s为样本数,假设类Ci(i=1,2,…,m)存在m个不同值,其中类Ci的样本数为si。对于一个给定样本分类所要求的期望信息为: I(s1,s2,…,sm)=-(p1log2(p1)+(p2log2(p2)+ …+(pmlog2(pm)) 上式中:pi=si/s为样本属于Ci的概率。 设属性A中存在v个不同值{a1,a2,…,av},对S训练集,利用属性A将其划分为v个子集 {S1,S2,…,Sv},其中Sj的样本在A中存在相同值aj。若选择A作为测试属性,则分类子集包括S节点中形成的多个分枝。设sij为Sj中类Ci样本数。将A划分的子集期望信息熵为: E(A)=∑vi=1sij+…+smjSI(sij,…,smj) 其中sij+…+smjS作为第j个权值,则获得A属性上分支的编码信息为: Gain(A)=I(s1,s2,…sm)-E(A) 算法中选择最高信息增益的属性给定S测试属性,根据测试属性创建节点并进行属性标记,并由属性只构建分枝进行样本划分。 1.3树的修剪 在决策树创建过程中,由于训练集中噪声的存在,在训练数据中存在异常现象的分支,为生成一棵易于理解的

文档评论(0)

w11556 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档