决策树算法在焊接工艺设计中的应用.docxVIP

决策树算法在焊接工艺设计中的应用.docx

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
PAGE 1 PAGE 1 决策树算法在焊接工艺设计中的应用 在焊接工艺设计过程中,因其信息量较大,人工无法对大量参数进行科学分析,也就无法获得可能潜在的信息和规则。本文在经典ID3算法的基础上,研究了决策树的改进算法C4.5及其剪枝方法,并首次将决策树C4.5算法应用于焊接领域,针对具有代表性的汽车车架焊接工艺设计过程,综合分析了各种工艺参数对焊接气孔和焊接变形的影响,为合理制定焊接工艺供应了参考,避免了焊接缺陷的产生。 0前言 汽车产业是我国工业的支柱产业之一。汽车中各总成均是直接或间接地安装在车架上,作为汽车结构的重要组成部分,车架在行驶过程中不仅承受着车体自身质量及装载货物的重力作用。而且还承受着汽车运行过程中的载荷作用。为避免某些焊接缺陷对焊接接头变形以及对焊件强度的影响。保证汽车行驶的安全性,选用合理的焊接方法及工艺参数,保证焊缝具有良好的焊接质量是非常必要的。 车架部分的焊点数量较大,而不同的焊点依据板材牌号以及厚度的不同组合会选用不同的焊丝直径和不同的工艺参数,其焊接信息的规模之大,简单在人工管理过程中出现问题,重复、遗漏的现象时有发生。依据工人以及设计人员的设计经验,无法对设计过程中获取的大量参数进行科学分析,也就无法获得可能潜在的信息和规则。在焊接工艺设计中确定焊接参数,不仅可缩短投产前期的设计时间,节省生产成本,而且还能够提高焊接接头的强度,削减焊接变形的产生。 数据挖掘是从大量的、不完全的、有噪声的、模糊的、随机的实际应用数据中提取隐含在其中的、并且潜在有用的信息和学问的过程。数据挖掘是学问发觉的核心环节。其主要任务有分类、聚类、回归分析、概括等。其中,决策树算法是一种靠近离散函数值的方法,其分类精度高,生成的模式简洁,并且对噪声数据有很好的健壮性,因而是目前应用最为广泛的归纳推理算法之一,在数据挖掘中受到研究者的广泛关注。 本文针对在汽车生产过程中占有举足轻重地位的CO2气体保护焊工艺设计过程,采用决策树的数据挖掘方法分析各种焊接工艺因素对焊接接头成形的影响,挖掘出隐含的工艺学问,有效地指导实际生产,极大地提高了焊接接头的质量和性能。 1决策树的基本原理 决策树方法最早产生于上世纪60年月,到70年月末。由JRossQuinlan提出了ID3算法,此算法的目的在于削减树的深度。但是忽视了叶子数目的研究。C4.5算法在ID3算法的基础上进行了改进,对于预估变量的缺值处理、剪枝技术、派生规则等方面作了较大改进,既适合于分类问题,又适合于回归问题。 1.1决策树的构造方法 决策树构造的输入是一组带有类别标记的例子,构造的结果是一棵二叉树或多叉树。二叉树的内部节点(非叶子节点)一般表示为一个规律推断,如形式为a=aj的规律推断,其中a是属性,aj是该属性的全部取值:树的边是规律推断的分支结果。多叉树(ID3)的内部结点是属性,边是该属性的全部取值,有几个属性值就有几条边。树的叶子节点都是类别标记。 由于数据表示不当、有噪声或者由于决策树生成时产生重复的子树等原因,都会造成产生的决策树过大。因此,简化决策树是一个不可缺少的环节。查找一棵最优决策树,主要应解决以下3个最优化问题:①生成最少数目的叶子节点;②生成的每个叶子节点的深度最小;③生成的决策树叶子节点最少且每个叶子节点的深度最小。 ID3算法是最为经典的决策树学习系统,采用自上而下的不回溯策略,能保证找到一棵简洁的树。其工作过程为:首先选出最有判别力的测试属性,把数据分成多个子集,每个子集又选择最有判别力的另一测试属性进行划分.如此一直进行到最终划分出的全部子集仅包括同一类型的数据为止。最终得到一棵决策树,可以用它对新的例子进行分类。ID3中测试属性的选取是以信息熵的下降速度为标准。信息熵的下降也就是信息不确定性的下降。 ID3是在2个假设的基础上采用基于信息熵的方法,把对象集C分为2类,其中P类对象有p个,N类对象有n个,假设为:任何一个正确的决策树,对全部对象依据其所占的比例来进行分类,即对于任意的对象属于P类的概率是,属于Ⅳ类的概率是。 当用一个决策树对一个对象进行划分时,返回一个类别。一个决策树可以被看成是分类信息的来源,决策树对做出正确划分需要的期望信息熵是: 假如条件属性A有属性值{A1,A2,A3,…,Av},被用作决策树的根时,它将对象子集划分为{C1,C2,C3,…,Cv},其中,Ci是属性A取Ai的对象,包括P类pi个对象,包括N类ni个对象,那么,子树Ci的期望信息熵是I{Pi,ni},对于树根A划分整个树所需的期望信息熵: 通过属性A来分支的信息增益是:

文档评论(0)

宝锋 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档