1112216002_朴号英_智能科学..docVIP

  1. 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
  2. 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载
  3. 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
  4. 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
  5. 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们
  6. 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
  7. 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
智能科学 学生姓名 朴号英 学 号 1112216002 递归神经网络的原理和训练方法 1. 引言 随着无线通信的飞速发展,3G、4G的应用和研究,功率放大器的性能已经变得越来越重要。功率放大器在整个系统中的设计决定了其性能。为了能够搭建完整的较为精确的功率放大器模型用于系统级设计,我们需要对功率放大器的特点和功能进行行为级的建模。在传统的功率放大器的建模方式还不完备的情况下,人工神经网络的优势就体现出来。人工神经网络在训练后不仅能够提供快速精确的响应,而且仅提供实际测量的数据就能训练出相应的模型而不需要搭建实际的电路模型,这样既节省了时间,也方便了相关的后续设计。递归神经网络是一种具有反馈形式的神经网络,本文采用提取较慢变化的信号的方法对功率放大器进行建模,其训练数据是时域数据,经过合理的训练能够很好的反应出功率放大器的行为。 2. 递归神经网络结构 由于人工神经网络具有可以学习任意非线性系统的能力而被应用于多个领域,其中对于功率放大器的建模来说也发挥着重要的作用。采用前馈神经网络所建立的模型是静态的,并不能描述系统的动态特性。描述动态系统的模型应该具备的是能够描述系统的动态特性和存储信息的能力。为了描述功率放大器内部的电感电容等储能元件,就需要神经网络能够包括延时信息,为了能够描述动态特性,就需要输出信息的反馈。现在的递归神经网络有几十种不同的结构以满足不同的动态系统的结构。不同的递归神经网络有着不同的结构与特性。下面就简单介绍几种递归神经网络的结构。 递归神经网络的结构主要分为三种:一种是全局反馈递归网络,另一种是全局前向递归网络,还有一种是混合型递归网络,也就是前两种递归神经网络的结合。因为本篇文章应用的是全局反馈型神经网络,所以在这里主要介绍的是全局反馈型神经网络。 2.1全局反馈型递归神经网络 2.1.1 ARX网络和NARX网络 对于ARX网络结构[53]是一种多项式的结构,其神经网络中神经元的激励函数是线性的,这种网络结构简单的采用了递归神经网络的输出是输出延时和输入及输入延时的多项式和为: (1) 而对于NARX网络来说,就是把相应的线性的神经元的激励函数变成了非线性的例如sigmoid函数,这样相应的表达式就变成了: (2) 可以看到ARX网络是线性的网络,可以用于线性的建模;而NARX是一种非线性的神经网络,因此用于的是非线性的建模。 2.1.2 Hopfield网络 Hopfield网络是一种典型的全反馈的递归神经网络。它是一种简单的神经网络结构,只有一层网路,其中神经元的激励函数为阈值函数,是将某一时刻的网络输出作为反馈,反馈到输入作为下一时刻网络的输入,这样来组成动态的系统,这样的网络具有相同的输入和输出。 图1 Hopfield网络结构 2.1.3 约旦网络 约旦网络为NARX网络的一种特殊形式,就是当NARX网络只含一层隐含层的时候这时的网络叫作约旦(Jordan)网络。需要注意的是,该神经网络存在关联层,这个关联层是假想的神经元层。 图2 约旦网络结构 可以根据约旦型神经网络结构来看,该网络适用于一阶系统的动态建模。 2.2 前向递归神经网络 递归神经网络是一种输出反馈作为输入的神经网络。如图3: 图3 递归神经网络结构图 如图所示,递归神经网络分为:输入层、x层、z层、y层。输入层包括了随时间变化的输入信号u(k)和与时间相关的变量p。输出层为与时间相关的信号y(k)。例如如果模型用来对放大器进行建模,则输入信号u(k)就用来代表放大器的输入信号;而p用来代表与放大器相关的电路参数;y(k)则为放大器的输出。 隐藏层的第一层为x层,这一层包含了输出信号y的时间延迟信息、输入信号x的延迟信息和电路的参数p的信息。这里让时间采样的序数为k。让Ky和Ku分别为输出y和输入u的总的延迟数目。x层可以定义为: (3) 设Nx是x层神经元的总数,则有Nx=Kp+NyKy+NuKu。 下一层隐藏层叫作z层。这一层的神经元包含了sigmoid函数。在x层和z层之间的权重向量为w=[w11 w12 …wNsNx]T, = [,,…, ]T为z层神经元相应的偏置。对于一组给定的x层的数值,z层的值就可以通过公式来计算: (4) 其中是sigmoid函数,wij是z层的第i个神经元和x层第j个神经元之间的权重。 最后一层叫作y层是输出层。y层的输出是z层神经元线性响应。让v=[v11 v12… vNyNz]T 是z层和y层之间的权重,η=[η1, η2,…, ηNy]T是y层每一个神经元的偏置。那输出层可以通过如下的公式来计算:

文档评论(0)

dashewan + 关注
实名认证
文档贡献者

该用户很懒,什么也没介绍

1亿VIP精品文档

相关文档