基于xgboos算法的智能孤岛检测方法.docxVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于xgboos算法的智能孤岛检测方法 摘要:目前常用的孤岛检测方法中,依然存在着难以有效确定电气特征量阈值的问题,从而导致检测盲区的产生,部分主动式检测方法还会对电能质量产生一定的影响。基于此,提出了一种基于XGBoost算法的智能孤岛检测方法,通过Matlab/Simulink仿真建立光伏系统并网和孤岛运行模型,提取相关电气特征量组成数据库,再利用XGBoost算法训练生成二分类预测模型。该方法对阈值的划分是根据系统自身运行情况由算法智能确定,改善了传统孤岛检测方法阈值整定困难的问题,同时通过对多个电气量的综合判断,使得检测盲区不易相互重叠,大大提高了检测的准确率,并且不会影响电能质量。最后利用仿真模拟进行验证并与5个常用的智能检测方法进行对比,结果表明该方法具有一定的优势和可靠性。 0 引言 近10年来,全球的光伏装机容量持续上升,总容量已经高达510 GW,其中中国光伏发电系统的装机总容量已经高达176.1 GW,位居世界首位。 随着光伏系统并入电网应用案例的越来越普遍,孤岛效应问题也变成了当前不容忽视的重要问题,亟待解决。非计划的孤岛运行状态会对整个分布式发电(distributed generation,DG)系统产生极大的危害,足以影响电力系统的正常运行和电网维修人员的人身安全。 目前,常见的孤岛检测方法主要可以分为通信式检测法、被动式检测法和主动式检测法三大类。通信式孤岛检测方法主要是利用信号发生和接收装置通过特定信号来检测断路器的开断状态 近年来,有不少文献将机器学习的智能分类方法引入到孤岛检测的研究中来,如随机森林算法 由于这类方法的应用依赖于先进数据挖掘技术来获取学习样本数据库,然后再由智能算法生成模型对待检测样本进行预测。因而学习样本数据库的选择极为重要,部分算法存在着对大量数据的处理时间较长,特殊样本处理能力较差,亦或由于追求精度易导致过拟合等缺陷。综合考虑对大量数据的处理能力,生成模型的精度要求以及避免模型过拟合等多种因素,本文提出一种基于极限梯度提升树算法 1 XGBoost算法的基本原理 XGBoost算法是在梯度提升决策树算法(gradient boosting decision tree,GBDT)基础上改进而来,依据集成的思路将基函数与权重进行组合而形成的集合算法,其具有快速、高效、泛化能力强等优点,广泛应用于分类和回归领域。 对于智能算法而言,直接生成分类准确率较好的强分类器难度较大。建立分类效果一般的弱分类器则容易得多,可以先构建多个弱分类器,然后用某种策略将多个弱分类器预测的结果组合起来,作为最终的预测结果,既可以降低建模复杂度,又能提高模型预测准确率。 基于上述多个弱分类器组合预测思路,XGBoost由多个分类回归树(classification and regression tree,CART)集成,从最开始建立一棵树(弱分类器),然后进行迭代,每次迭代过程中都加入一棵树,最终得到多棵树模型集成的强分类器。 假设集成模型中共有K棵决策树,则样本i经模型得到的最终预测结果为 XGBoost算法主要由目标函数设计、最佳树结构搜寻、最佳分支搜寻3个部分构成。 1.1 目标函数 在统计学习算法当中,损失函数通常用于衡量模型的泛化能力,即模型在未知数据上预测的准确与否,但是却无法对模型的复杂度进行评价,在数据量过大或含有特殊样本时可能会导致运算时间过长以及过拟合等情况出现。XGBoost通过引入了模型复杂度来衡量算法的运算效率,实现了模型表现和运算速度的平衡,其目标函数表示为 式中:i为数据集中的第i个样本;m为导入第k个树的数据总量;K为所建立的树的总量。 对目标函数进行求解的目的是为了求得某次迭代中最优的树,而XGBoost算法的思想是每次迭代形成的新决策树都会叠加到之前形成的模型中,因此目标函数中的第1项损失函数与已经建立好的所有树结构均具有一定的相关性,相关公式为 目标函数的第2项树的复杂度则是由叶子数目与正则项相加而得,其公式为 式中:T为叶子节点的个数;ω 1.2 寻找最佳树结构 传统的GBDT在求解目标函数的过程中只运用了一阶导数的信息,而XGBoost对损失函数进行二阶泰勒展开,使得求解的精度更高。 当进行第t次迭代时,由于前面已经产生t-1棵树,此时加入的决策树为f 其一阶导数和二阶导数分别为 将目标函数在 式中,ω 回代可得对应的最小目标函数为 1.3 寻找最佳分支 XGBoost作为树的集成模型,求解过程通常采用决策树计算中最常用的贪婪算法进行计算。通过计算分裂后的值减去分裂前的值,从而得到增益。定义I 寻找最佳分支的过程如下: 1.4 迭代过程 整个XGBoost算法的流程图见图1。 2 训练数据集的

文档评论(0)

lgjllzx + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档