基于遗传算法的BP神经网络气象预报建模-概率论与数理统计专业论文.docxVIP

  • 4
  • 0
  • 约7.48万字
  • 约 62页
  • 2019-03-30 发布于上海
  • 举报

基于遗传算法的BP神经网络气象预报建模-概率论与数理统计专业论文.docx

PAGE PAGE 10 训练样本挑选最佳网络权系数和网络结构,建立基于遗传算法的 BP 神经网络预报模型二。 1.本文提出的这种方法克服了由于神经网络初始权值的随机性和网络结构确定过程 中所带来的网络振荡,以及网络极易陷入局部解问题并且有效提高神经网络的泛化能力。作 为应用实例,以广西全区 4 月份平均降水作为预报量及前期 500pha 月平均高度场,海温场 高相关区作为预报因子,建立基于遗传算法的 BP 神经网络短期气候预测模型。将这种方法 与传统的逐步回归方法作对比分析,在回归模型、回归系数非常显著时,以相同的因子建立 逐步回归模型。在建模因子为 8 个时,对 5 个独立样本的预测结果表明,逐步回归模型的平 均相对误差为:41.39%:基于遗传算法的 BP 神经网络模型一的平均相对误差为:16.49%, 模型二的平均相对误差为:13.48%,即预报精度明显提高。当改变建模因子为 4 个时,基 于遗传算法的 BP 神经网络模型的预报效果依然优于逐步回归模型,显示了较好的预报稳定 性。 2.该方法在进行独立样本的逐年预报时,基于遗传算法的 BP 网络模型一和二的预报 能力,都随着训练样本的增加,预报的精度会有所提高。体现出随着学习样本增加,它的学 习能力增强的特点。 3.本文在建立基于遗传算法的 BP 网络模型二中,特别提出了从进化过的权系数和网 络结构中,再次利用训练样本挑选的方法,充分发挥了遗传算法和神经网络的长处,综合了 神经网络泛化映射能力和遗传算法全局收敛能力,并且克服遗传算法的局部调节能力比较弱 的问题,相对基于遗传算法的 BP 神经网络网络模型一,该方法进一步提高预报能力,在以 往的文献中尚未见到有相类似的研究研究工作报导。 4.本文在利用遗传算法优化 BP 神经网络隐节点(网络结构)的过程中,也检验分析 了神经网络方法在实际应用中,隐节点个数最有可能在输入节点个数附近变化(即比输入节 点数略多或者略少)的经验性结论。 本文在利用遗传算法优化 BP 神经网络和网络权系数的过程,同时也对遗传算法的收 敛性进行一些讨论。GA 全局性收敛问题的研究至关重要,因为不仅具有理论指导意义,而 且也有重要的实践价值。Goldberg 和 Segrest([15],1987)是首次使用马尔可夫链分析了遗 传算法:Eiben 等人([16],1991)用马尔可夫链分析证明了保留最佳个体的 GA 以概率 1 收敛到全局最优解: Rudolph([17],1994)用齐次有限马尔可夫链分析证明了带有复制、 交叉、变异操作的标准遗传算法收敛不到全局最优解:Qi 和 Palmieri([18],1994)对浮点 数编码的遗传算法进行了严密的数学分析,但是其结果是基于群体数为无穷大这一假设的。 怦为民和席裕庚([19],1996)利用齐次有限马尔可夫链对基本遗传算法的全局收敛性和计 算效率进行分析:徐综本和聂赞坎等人([20],2002)开始利用棋理论分析遗传算法的收敛 性,该文首次尝试用棋理论证明遗传算法在保留最佳个体策略时,遗传算法在有限步内几乎 必然强收敛于最优解。王霞和周国标([21],2003)利用下棋理论证明分析遗传算法的收敛 速率分析,并给出保留最佳个体策略的遗传算法收敛速率的概率形式。本文则是利用下棋理 论分析遗传算法在非保留最佳个体策略时,遗传算法强收敛到全局最优解的充分条件,这为 用棋理论分析遗传算法做了有益的尝试。 关键词:遗传算法:神经网络: 预报建模: 泛化能力: 下棋: 2 英文摘要 The Back-propagation Neural Network Meteorological forecast model based on Genetic Algorithms English Abstract Since the 90’s of 20 centuries, Some the Neural Network forecast mold were applied in domestic and international atmosphere course. With the research be made a thorough and careful, the researcher discovered an important problem in the actual weather forecast application, which the Neural Network beginning connection weights, the network construction, learning factor and momentum factor were hard ce

您可能关注的文档

文档评论(0)

1亿VIP精品文档

相关文档