- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
第4章基于小波神经网络的金融时间序列建模
可以找出它们之间可能存在的非线性协整关系。
[定理4.7】如果神经网络采用(4.4)的目标函数形式,并且其输出残差序列
p,)是缈不可约的,满足(4—5)的条件,那么残差序列{Et}不但具有渐近平稳分
布,而且该分布是唯一的。
从定理4.6和定理4.7可以看出,以{置}的分量序列作为网络的输入序列,
并运用神经网络拟合非线性协整函数,(h,b,…,x。)时,如果网络的输出残差
序列慨)是妒不可约的,那么可以通过调整遗忘因子五的值来满足定理4.7的条
件:
max占I+l‘28
,,。
^or一一
l≤kT以以
从而使得网络输出的残差序列具有平稳的渐近分布。
遗忘因子五反映神经网络对观测值的遗忘程度。如果A值过小,那么网络对
以前观测值的遗忘程度太高,这样,神经网络对非线性协整关系进行拟合时,主
要依赖于当前时刻的样本观测值,从而,神经网络的权重系数容易随观测值的波
动而变化,神经网络中的权重系数将成为时变参数。一般无法得到稳定参数的非
线性协整函数八x¨,x:f,.一,x。)。在仿真试验中也发现,当旯取值比较小时,网
络输出残差序列的平稳性一般优于A取值较大时输出残差序列的平稳性。
从上面分析可知,确定神经网络的一个目标函数‘,。后,网络的“遗忘程度”
和网络“输出残差序列的平稳性”这两个方面存在相互影响,并且遗忘因子直接
影响网络中参数估计值的平稳性收敛性。对于给定的一个输入向量时间序列
{J,),如果遗忘因子选得过小,那么为了保证输出残差序列的平稳性,只能得
到时变参数的非线性协整函数的估计,从而无法给出非线性协整函数的表达式。
如果选择较大的五值,虽然可以得到稳定的参数估计,但网络的输出残差序列可
能是长记忆性的。
4.4非线性协整模型的估计和检验
4.4.1小波神经网络模型参数估计
小波神经网络具有任意逼近非线性函数的能力,同时由于小波变换良好的时
频特性,可以通过对尺度参数和平移参数的训练,更快更好的逼近非线性函数。
此外,小波神经网络还可以避免神经网络训练过程中的局部最优问题。根据非线
性协整系统的结构特点,可以构造如下所示的小波神经网络模型:
成都理工大学硕士学位论文
,cll
毪l
■
●
●
‰
图4-2:用于非线性协整建模的小波神经网络模型
网络分三层,输入层Xt=(工¨,而f,.一,‰)7表示M维输入向量,
川加·^r为样本个数;隐层节点基函数g(等]舯波函数一·如朋
由输入节点j到隐层第n个节点的连接权重为‰,由隐层第n个节点到输出节
点的连接权重为%。 需要学习的参数向量为
口=(巧1,…K^,,…,巧V1,…y赫,口l,bL,…口Ⅳ,b.v,wl,…w^,)。·
网络具有函数形式
儿=厂(置)=∑%gI盟__一 (4.6)
州㈣文n-I
I
g[孥f,,gB
当网络输出Yt为一短记忆时间序列时,根据定义,向量置存在非线性协整
关系,由小波神经网络所逼近的函数映射厂0即为置向量序列的非线性协整函
数。
对于网络中的参数的训练,可以通过极小化如下形式的能量函数来实现:
E(口)=去∑(儿一矾)2 (4·7)
其中,Z为教师值,这里取常数。
采用最速下降法对上式进行优化,其基本思想是:
钆讣A矧帆 ∽s,
第4章基于小波神经网络的金融时间序列建模
共甲:0是训珠阴爹毅l司量,五为步长,E为
文档评论(0)