- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
中国力学学会第五届全国 50114
多相流、非牛顿流体、物理化学流学术会议
用神经网络模型来预测分数阶导数与分数维之间的关系
宋道云 方波 江体乾
(华东理工大学化工所流变室,上海 200237,电话:(021dysongOwebpc.edu.cn)
摘要:用水驱替非牛顿流体溶液而产生的粘性指进图案,用数盒子法得到分数维.同时用分数阶导数
本构方程来描述上述非牛顿流体的流变特性。利用反向传播神经网络模型BP将分数阶导数与分数维
联系起来.
关键词:BP网络模型,分数阶导数,分数维
1人工神经网络模型及BP模型简介
1.1人工神经网络模型 (ArtificialNeuralNetwork)tt,xs1
ANN 由大量的相互连接处理单元 (也叫节点、神经元、细胞、单元)构成。根据
结构可分为前向和反馈型网络:根据学习算法可分为有导师学习、无导师学习及强化
学习 (严格地说,强化学习是有导师学习的一种特殊情况):根据网络状态可分为连续
性网络和离散性网络;按网络活动方式,可分为确定性网络和随机性网络。人工神经
网络主要用途:模型和预测,也可以看成是映射或黑箱:模式识别:数据聚簇、压缩;
组合优化;信号处理等。
1.2误差向后传播 (BackPropagation)
BP网络模型属于前向有导师的神经网络,是神经网络模型中使用最广泛的一种,
由Rumellmrll1等人发展起来的,属特殊多层感知器模型 (Multi-laverPerception)
MLPts.6.71。一般分为输入层、隐层和输出层,各层仅与该层下层采用全互连方式相连
不允许同层单元、反向、越层相连。一个典型的BP神经网络由一个输入层、一个隐层
和一个输出层构成,如图1所示。
当给定网络的输入向量时,该向量由输入单元传入隐层单元,再由隐层单元逐层
处理后传到输出单元,由输出单元处理后产生输出向量。如果输出值与期望值之间有
误差,首先修正隐层与输出层之间的权值,然后修正隐层与输入层之间的权值,误差
是反向传播的.BP由此而得名。在图1中,、{表示输入层I结点的输入,Yn表示隐
一 127一
一--一~~~~~~
层“结点的输出,Y{表示输出层」结点的输出,寸表示期望值,上标k表示训练对的
序号。呱表示隐层h结点与输入层I结点连接权值,陈表示输出层i结点与隐层h结
点之间的权值。
图1三层BP网络结构示意图
Yh=。干W〔:卜k· 川
Yk二、Chw},yh) ) 2 (
F,,FZ可以是线性函数F(s)二s,Sigmoid函数F(s)= 或双曲正切tansig函数
l+e-
1一e2
1+e一夕,,也可以是径向基函数F(s)=e/po隐层结点处理函数一般为Sigmoid
或双曲正切函数。输出层结点处理函数若选Sigmod函数,则输出结果压缩到[0,.1]c
若选双曲正切函数,则输出范围在[-1,+1];若选线性函数,则输出范围没有限制。式
(1)和 2〔)中,每个结点的门限值 (或阐值)归并为输入恒为l的权值,便于计算。
1.3算法改进
标准BP算法是一种简单的梯度下降静态寻优算法,主要的缺点是:收敛速度慢;
局部极值;难以确定隐层和隐结点的个数。BP算法的改进主要有两种途径:采用启发
式学习方法:采用更有效的优化算法。动量修正法可以降低网络对于误差曲面局部细
节的敏感性,有效地抑制网络陷于局部极小。在修正W (口时,只是按照t时刻的负梯
度方式进行修正而没有考虑到以前积累的经验,即以前时刻的剃度方向.从而常常使
学习过程发生振荡,收敛缓慢。为此有人提出了改进算法D.5-w1.
w(t+1)=w(t)+a[(l一r1)D(t)+r1D(t一,
文档评论(0)