基于动量BP算法神经网络房价预测研究.docVIP

基于动量BP算法神经网络房价预测研究.doc

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
基于动量BP算法神经网络房价预测研究

基于动量BP算法神经网络房价预测研究   摘要:房地产价格近年来持续上涨,对于房价趋势的预测成为经济社会热点,但这些预测大都停留在定性分析阶段。从定量分析的角度入手,提出利用加入动量因子的BP神经网络算法建立数学模型,运用Matlab仿真实现房价预测。详细分析了BP神经网络学习算法过程,并加入动量因子以加快收敛、避免陷入局部最优。以山东济南为例,分析得出影响房价的7大主要因素,搜集2000-2012年数据,运用Matlab建立单隐含层的BP神经网络,通过训练网络,预测2014年该市房产均价。实验结果表明,该方法能在有限的数据条件下,对房价预测精准度达99.1%,为我国房地产业的可持续发展提供了科学的咨询和决策手段。   关键词关键词:BP神经网络;学习算法;动量因子;房价仿真预测   DOIDOI:10.11907/rjdk.1431015   中图分类号:TP3-05   文献标识码:A文章编号   文章编号2015)002005903   0引言   房地产业属于基础性、先导性产业,其发展状况间接地反映了市场发展状况。伴随着我国经济的飞速发展,房地产业价格水涨船高,对于房地产价格的分析预测,一直是经济社会热点问题。房价受多个因素影响和制约,如国家宏观调控、地区经济发展水平、房地产业投资情况、居民收入水平、消费情况等,多种不同因素对房地产价格影响的方向和程度不尽相同,房价预测技术性强、难度大。   BP神经网络的概念由Rumelhart和McCelland所带领的科学家小组在1986年提出,是一种采用误差逆向传播算法进行有监督学习的多层前向网络,具备处理线性不可分问题的能力,相比于回归模型、AHP、灰色系统等方法,BP神经网络在容错性、精确性、自组织学习能力和不依赖固定数学模型方面表现优越\[1\],是目前应用最为广泛的神经网络之一。本文利用基于动量BP算法的神经网络建立模型,对房价未来趋势进行预测。   1BP神经网络建模   1.1BP神经网络算法   典型的 BP神经网络包括: 输入层、隐含层和输出层,层与层之间实行全连接, 同层内神经元之间无连接。它的学习规则是使用最速下降法, 通过反向传播不断调整神经网络的权值和阈值, 直到网络的误差平方和达到最小\[2\]。   在拥有单隐含层BP网络中,设Im、Hm、Om分别表示输入端,隐含层和输出端第m个神经元,从Im到Hm的连接权值矩阵记ωmm=(ω11,......ω1m;......;ωm1,......ωmm) ,从Hm到Om的连接权值矩阵记为 δmm=(δ11,......,δ1m;......;δm1,......,δmm)。用U和V分别表示每层输入和输出,如U2H表示隐含层第二个神经元的输入,n代表迭代次数。   1.1.1工作信号正向传播   输入层的输出等于输入: VmI(n)=Im(n),隐含层第m个神经元的输入等于VmI(n)的加权和:UmH(n)=∑Mm=1ωmm(n)VmI(n),其中M为输入向量长度。隐含层传递函数必须可微,本方法采用非线性作用Sigmoid函数:   Logsig(x)=11+e-x(1)   则隐含层第m个神经元的输出:   VmH(n)=LogsigUmH(n)(2)   输出层第m个神经元的输入等于VmH(n)的加权和:   UmO(n)=∑Mm=1δmm(n)VmH(n)(3)   根据经验,输出层传递函数采用线性purelin函数,则第m个神经元输出:   VmO(n)=purelinUmO(n)(4)   经过n次迭代后,网络的总误差表示为:   E(n)=12∑Mm=1Tm(n)-VmO(n)2(5)   其中Tm(n)是网络的期望输出。   1.1.2误差信号反向传播   设BP网络学习率为φ,根据梯度下降法,隐含与输出之间的权值δmm调整为:   △δmm(n)=-φE(n)δmm(n)(6)   由于E(n)是Tm(n)-VmO(n)的二次函数,梯度值为:   E(n)δmm(n)=-Tm(n)-VmO(n)×purelin’UmO(n)×VmH(n)   权值修正量:   △δmm(n)=φ×Tm(n)-VmO(n)×VmH(n)(7)   类似地,对输入层与隐含层之间的权值ωmm调整,引入局部梯度βmH:   βmH=-E(n)VmHLogsig’UmH(n)=∑Mm=1βmIδmm(n)(8)   故有:   △ωmm(n)=φβmHVmI(n)(9)   1.2加入动量因子算法   典型的最速下降法易陷入局部极小值,而不能达到想要的全局最优解。我们要求权值更新的方向和幅度不但与该次计算所得梯度相关,还与上次

文档评论(0)

317960162 + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档