网站大量收购闲置独家精品文档,联系QQ:2885784924

分子三次分母一次第二类有理样条权函数神经网络灵敏度分析及其应用-计算机应用技术专业论文.docx

分子三次分母一次第二类有理样条权函数神经网络灵敏度分析及其应用-计算机应用技术专业论文.docx

  1. 1、本文档共84页,可阅读全部内容。
  2. 2、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。
  3. 3、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  4. 4、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
查看更多
分子三次分母一次第二类有理样条权函数神经网络灵敏度分析及其应用-计算机应用技术专业论文

万方数据 万方数据 南京邮电大学学位论文原创性声明 本人声明所呈交的学位论文是我个人在导师指导下进行的研究工作及取得的研究成果。 尽我所知,除了文中特别加以标注和致谢的地方外,论文中不包含其他人已经发表或撰写过 的研究成果,也不包含为获得南京邮电大学或其它教育机构的学位或证书而使用过的材料。 与我一同工作的同志对本研究所做的任何贡献均已在论文中作了明确的说明并表示了谢意。 本人学位论文及涉及相关资料若有不实,愿意承担一切相关的法律责任。 研究生签名: 日期: 南京邮电大学学位论文使用授权声明 本人授权南京邮电大学可以保留并向国家有关部门或机构送交论文的复印件和电子文 档;允许论文被查阅和借阅;可以将学位论文的全部或部分内容编入有关数据库进行检索; 可以采用影印、缩印或扫描等复制手段保存、汇编本学位论文。本文电子文档的内容和纸质 论文的内容相一致。论文的公布(包括刊登)授权南京邮电大学研究生院办理。 涉密学位论文在解密后适用本授权书。 研究生签名: 导师签名: 日期: 摘要 传统的梯度下降类神经网络存在着诸如收敛速度慢、局部极小等无法避免的缺点,虽然 很多学者从多方面进行了改进,但是这些改进无法从根本上解决问题。因此本文中,用分子 三次、分母一次有理插值样条作为权函数,构建分子三次、分母一次第二类有理样条权函数 神经网络。 分子三次、分母一次第二类有理样条权函数神经网络,解决了传统神经网络初值敏感、 局部极小等问题。文中用分子三次、分母一次的有理插值样条作为权函数代替常数权,根据 训练样本得到的权函数能够反映数据的潜在信息。当输入样本或者权值存在扰动时,神经网 络的输出会发生变化。灵敏度作为神经网络的一个重要指标,可以分析这些变化给系统带来 的影响。因此,文中首先将分子三次、分母一次有理插值样条与第二类样条权函数神经网络 结合,研究其学习算法。然后对分子三次、分母一次第二类有理样条权函数神经网络的灵 敏度进行分析研究。接着进行 Matlab 仿真,将本文中的神经网络与传统梯度下降类神经 网络进行学习能力以及泛化能力的对比。 最后,将分子三次、分母一次第二类有理样条权函数神经网络运用到神经网络芯片设计 中,完成此种神经网络 FPGA 实现的模块设计。然后通过 Quartus 和 ModelSim 对 FPGA 方式 实现的此种神经网络的泛化能力进行实验验证。通过实验可以看出 FPGA 实现的分子三次、 分母一次第二类有理样条权函数神经网络同样具有很强的泛化能力,适合用来设计专用神经 网络芯片。 关键词: 样条权函数神经网络,有理样条插值,误差分析,灵敏度分析,FPGA 硬件实 现 I Abstract The traditional gradient descent neural network has some disadvantages, such as slow convergence, local minimum and so on. Although many scholars have improved it from many aspects, these shortcomings can’t be solved fundamentally. So in this paper, using cubic numerator and linear denominator rational spline as weight function, construct second type spline weight function neural network. This spline weight function neural network overcomes the shortcomings of slow training speed, local minimum and before the network training starting, the dimensions of input and output can be determined according to the number of attributes of sample data and levels taken into. Cubic numerator and linear denominator rational spline is used to replace the constant weight as the weight function related to the training sample, so it can reflect the information of training sa

您可能关注的文档

文档评论(0)

peili2018 + 关注
实名认证
内容提供者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档