恒流充电NN_PID.docVIP

  • 9
  • 0
  • 约2.39千字
  • 约 5页
  • 2017-02-01 发布于重庆
  • 举报
恒流充电NN_PID

本文首先介绍单个神经元和多个神经元构成的神经网络,然后介绍如何将基于BP神经网络PID参数自适应整定 图中x1~xn是从其他神经元传来的输入信号,wij表示表示从神经元j到神经元i的连接权值,θ表示一个阈值 ( threshold ),或称为偏置( bias )。则神经元i的输出与输入的关系表示为: 图中 yi表示神经元i的输出,函数f称为激活函数 ( Activation Function )或转移函数 ( Transfer Function ) ,net称为净激活(net activation)。若将阈值看成是神经元i的一个输入x0的权重wi0,则上面的式子可以简化为: 2 BP神经网络采用BP学习算法的前馈型神经网络通常被称为BP网络前馈型神经网络前馈网络也称前向网络。这种网络只在训练过程会有反馈信号,而在分类过程中数据只能向前传送,直到到达输出层,层间没有向后的反馈信号,因此被称为前馈网络。感知机( perceptron)与BP神经网络就属于前馈网络。 中是一个3层的前馈神经网络,其中第一层是输入单元,第二层称为隐含层,第三层称为输出层(输入单元不是神经元,因此图中有2层神经元)。 BP学习算法误差反向传播(Error Back Propagation, BP)算法BP算法的基本思想是,学习过程由信号的正向传播与误差的反向传播两个过程组成。正向传播时,输入样本从输入层传,经各隐层逐层处理后,传向输出层。若输出层的实际输出与期望的输出(教师信号)不符,则转入误差的反向传播阶段。误差反传是将输出误差以某种形式通过隐层向输入层逐层反传,并将误差分摊给各层的所有单元,从而获得各层单元的误差信号,此误差信号即作为修正各单元权值的依据。这种信号正向传播与误差反向传播的各层权值调整过程,是周而复始地进行的。权值不断调整的过程,也就是网络的学习训练过程。此过程一直进行到网络输出的误差减少到可接受的程度,或进行到预先设定的学习次数为止。PID控制器,它输出的控制作用不仅与偏差大小有关,而且与被控对象的状态有关。在偏差较大时,采用一组PID参数,增强控制作用,使对象较快地趋于给定值:当偏差较小时,自动调整为另一组参数,削弱控制作用,避免出现过大的超调量。显然,这样的控制器可以较好地解决稳定性和快速性的矛盾。更进一步,当对象模型摄动时,控制器参数也自动修正,保证模型变化后系统的稳定和控制品质。 BP神经网络具有高度的并行分布式、联想记忆、自组织、自学习、容错能力强的非线性映射能力,体现了人工神经网络最为精华的部分,得到了广泛的应用。 神经网络所具有的任意非线性表达能力,可以通过对系统性能的学习来实现具有最佳组合的PID控制。采用BP网络,可以建立参数自学习的PID控制器。 基于BP网络的PID控制系统机构图如下图所示,控制器由两部分组成 经典的PID控制器,直接对被控对象进行闭环控制,并且三个参数为在线调整方式; 神经网络,根据系统的运行状态,调整PID控制器的参数,以期达到某种性能指标的最优化,使输出层神经元的输出状态对应于PID控制器的三个可调参数。通过神经网络的自学习、加权系数调整,使神经网络输出对应于某种最优控制规律下的PID控制器参数。 基于BP神经网络结构的PID控制器结构 PID控制器采用经典的数字式PID控制器。其中经典增量式数字PID的控制算法为 (1) 式中,分别为比例、积分、微分系数。 采用4-5-3结构的三层BP网络,其结构如下图所示。 网络输入层的输入为:,式中输入变量的个数取决于被控系统的复杂程度。 网络隐含层的输入、输出为 (2) 式中,—隐含层加权系数;上角标(1)、(2)、(3)分别代表输入层、隐含层和输出层。 隐含层神经元的激活函数取正负对称的Sigmoid函数 (3) 网络输出层的输入输出为 (4) 输出层输出节点分别对应三个可调参数。由于不能为负值,所以输出层神经元的激活函数取为非负的Sigmoid函数为 (5) 取性能指标函数为 (6) 按照梯度下降法修正网络的权系数,即按照对加权系数的负梯度方向搜索调整,并附加一个使搜索快速收敛全局极小的惯性项 (7) 式中,为学习速率;为惯性系数。 (8) 由于未知,所以近似用符号函数sgn()取代,由此带来计算不精确的影响可以通过调整学习速率来补偿。 由式(1)和式(4)可求得 (9) 上述分析可得网络输出层权的学习算法为 (10) 同时可以得到隐含层加权系数

文档评论(0)

1亿VIP精品文档

相关文档