- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
输入量的选择 输入量选择的两条基本原则 必须选择那些对输出影响大且能够检测或提取的变量 各输入变量之间互不相关或相关性很小 一 、训练样本集的准备 输入输出量的性质 从输入、输出量的性质来看,可分为两类:一类是数值变量,一类是语言变量。 数值变量的值是数值确定的连续量或离散量。 语言变量是用自然语言表示的概念,其“语言值”是用自然语言表示的事物的各种属性。 当选用语言变量作为网络的输入或输出变量时,需将其语言值转换为离散的数值量。 一 、训练样本集的准备 2. 输入量的提取与表示 XC=(111100111)T XI=(111100111)T XT=(111100111)T (1)文字符号输入 一 、训练样本集的准备 (2)曲线输入 p=1,2,…,P 一 、训练样本集的准备 (3)函数自变量输入 一般有几个输入量就设几个分量,1个输入分量对应1个输入层节点。 (4)图象输入 在这类应用中,一般先根据识别的具体目的从图象中提取一些有用的特征参数,再根据这些参数对输入的贡献进行筛选,这种特征提取属于图象处理的范畴。 一 、训练样本集的准备 3. 输出量的表示 (1)“n中取1”表示法 “n中取1”是令输出向量的分量数等于类别数,输入样本被判为哪一类,对应的输出分量取1,其余 n-1 个分量全取0。例如,用0001、0010、0100和1000可分别表示优、良、中、差4个类别。 (2)“n-1”表示法 如果用n-1个全为0的输出向量表示某个类别,则可以节省一个输出节点。例如,用000、001、010和100也可表示优、良、中、差4个类别。 (3)数值表示法 对于渐进式的分类,可以将语言值转化为二值之间的数值表示。数值的选择要注意保持由小到大的渐进关系,并要根据实际意义拉开距离。 一 、训练样本集的准备 二、输入输出数据的归一化 归一化也称为或标准化,是指通过变换处理将网络的输入、输出数据限制在[0,1]或[-1,1]区间内。 进行归一化的主要原因: 归一化的方法: 进行归一化的主要原因: ①网络的各个输入数据常常具有不同的物理意义和不同的量纲,归一化给各输入分量以同等重要的地位; ②BP网的神经元均采用Sigmoid转移函数,变换后可防止因净输入的绝对值过大而使神经元输出饱和,继而使权值调整进入误差曲面的平坦区; ③Sigmoid转移函数的输出在0~1或-1~1之间。教师信号如不进行归一化处理,势必使数值大的输出分量绝对误差大,数值小的输出分量绝对误差小。 二、输入输出数据的归一化 归一化的方法: 将输入输出数据变换为[0,1]区间的值常用以下变换式 其中,xI代表输入或输出数据,xmin代表数据变化的最小值,xman代表数据的最大值。 将输入输出数据变换为[-1,1]区间的值常用以下变换式 其中,xmid代表数据变化范围的中间值。 二、输入输出数据的归一化 三、网络训练与测试 网络的性能好坏主要看其是否具有很好的泛化能力,对泛化能力的测试不能用训练集的数据进行,而要用训练集以外的测试数据来进行检验。 三、网络训练与测试 在隐节点数一定的情况下,为获得好的泛化能力,存在着一个最佳训练次数。 三、网络训练与测试 * * * * 第三章 前馈人工神经网络 --误差反传(BP)算法的改进与BP网络设计 3.4基于BP算法的多层前馈网络模型 三层BP网络 输入层 隐层 输出层 模型的数学表达 输入向量: X=(x1,x2,…,xi,…,xn)T 隐层输出向量: Y=(y1,y2,…,yj,…,ym)T 输出层输出向量: O=(o1,o2,…,ok,…,ol)T 期望输出向量:d=(d1, d2,…,dk,…,dl)T 输入层到隐层之间的权值矩阵:V=(V1,V2,…,Vj,…,Vm) 隐层到输出层之间的权值矩阵:W=(W1,W2,…,Wk,…,Wl) 各个变量之间如何建立联系,来描述整个网络? 神经网络的学习 学习的过程: 神经网络在外界输入样本的刺激下不断改变网络的连接权值乃至拓扑结构,以使网络的输出不断地接近期望的输出。 学习的本质: 对可变权值的动态调整 学习规则: 权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。 BP算法是一种学习规则 BP算法的基本思想 学习的类型:有导师学习 核心思想: 将输出误差以某种形式通过隐层向输入层逐层反传 学习的过程: 信号的正向传播 误差的反向传播 将误差分摊给各层的所有单元---各层单元的误差信号 修正各单元权值 BP算法的学习过程 正向传播: 输入样本---输入层---各隐层---输出层 判断
您可能关注的文档
最近下载
- 2021年河南中考化学真题及答案.doc VIP
- 4.1水资源及其利用(第1课时保护水资源)课件---2024-2025学年九年级化学人教版(2024)上册.pptx VIP
- 华中科技大学大学物理2014-2015期末考试.pdf VIP
- 果树栽培学完整课件各论苹果.ppt VIP
- 连锁酒店行业2025年扩张策略与风险规避报告.docx
- 国企三项制度改革-10、任期制契约化任期业绩目标责任书(总经理).pdf VIP
- 肝衰竭诊治指南(2024年版)解读.pptx
- 住宅物业管理服务规范DB3505T 17—2024.pdf VIP
- 2024辅警面试问题及答案 .pdf VIP
- 副局长意识形态工作总结.docx VIP
文档评论(0)