- 1、原创力文档(book118)网站文档一经付费(服务费),不意味着购买了该文档的版权,仅供个人/单位学习、研究之用,不得用于商业用途,未经授权,严禁复制、发行、汇编、翻译或者网络传播等,侵权必究。。
- 2、本站所有内容均由合作方或网友上传,本站不对文档的完整性、权威性及其观点立场正确性做任何保证或承诺!文档内容仅供研究参考,付费前请自行鉴别。如您付费,意味着您自己接受本站规则且自行承担风险,本站不退款、不进行额外附加服务;查看《如何避免下载的几个坑》。如果您已付费下载过本站文档,您可以点击 这里二次下载。
- 3、如文档侵犯商业秘密、侵犯著作权、侵犯人身权等,请点击“版权申诉”(推荐),也可以打举报电话:400-050-0827(电话支持时间:9:00-18:30)。
- 4、该文档为VIP文档,如果想要下载,成为VIP会员后,下载免费。
- 5、成为VIP后,下载本文档将扣除1次下载权益。下载后,不支持退款、换文档。如有疑问请联系我们。
- 6、成为VIP后,您将拥有八大权益,权益包括:VIP文档下载权益、阅读免打扰、文档格式转换、高级专利检索、专属身份标志、高级客服、多端互通、版权登记。
- 7、VIP文档为合作方或网友上传,每下载1次, 网站将根据用户上传文档的质量评分、类型等,对文档贡献者给予高额补贴、流量扶持。如果你也想贡献VIP文档。上传文档
查看更多
ArtificialNeuralNetworks課件
interval=0.1; [x1, x2]=meshgrid(-1.5:interval:1.5); F = 20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2); mesh(x1,x2,F); Surf(x1,x2,F); interval=0.1; [i, j]=meshgrid(-1.5:interval:1.5); row=size(i); tx1=i(:); tx1=tx1; tx2=j(:); tx2=tx2; tx=[tx1;tx2]; %testing ty=sim(net,tx); v=reshape(ty,row); figure subplot(1,3,2) mesh(i,j,v); Artificial Neural Networks 人工神经网络是一个非线性的有向图,图中含有可以通过改变权大小来存放模式的加权边,并且可以从不完整的或未知的输入找到模式。 擅长两个方面: 对大量的数据进行分类,并且只有较少的几种情况; 必须学习一个复杂的非线性映射。 目前应用: 人们主要将其用于语音、视觉、知识处理、辅助决策等方面。 在数据压缩、模式匹配、系统建模、模糊控制、求组合优化问题的最佳解的近似解(不是最佳近似解)等方面也有较好的应用。 xn wn ∑ x1 w1 x2 w2 net=XW … 人工神经元模拟生物神经元的一阶特性。 输入:X=(x1,x2,…,xn) 联接权:W=(w1,w2,…,wn)T 网络输入: net=∑xiwi 向量形式: net=XW * * a+b o (0,c) net a c=a+b/2 1、BP算法的出现 非循环多级网络的训练算法 UCSD PDP小组的Rumelhart、Hinton和Williams1986年独立地给出了BP算法清楚而简单的描述 1982年,Paker就完成了相似的工作 1974年,Werbos已提出了该方法 2、弱点:训练速度非常慢、局部极小点的逃离问题、算法不一定收敛。 3、优点:广泛的适应性和有效性。 应该将net的值尽量控制在收敛比较快的范围内 可以用其它的函数作为激活函数,只要该函数是处处可导的 * * ??0.5 f ′(net) 0.25 o 0 1 ? 1 (0,0.5) ?net (0,0) o * * x1 o1 输出层 隐藏层 输入层 x2 o2 om xn … … … … … … … W(1) W(2) W(3) W(L) * * x1 o1 输出层 隐藏层 输入层 x2 o2 om xn … … … … W V 2、向后传播阶段——误差传播阶段: (1)计算实际输出Op与相应的理想输出Yp的差; (2)按极小化误差的方式调整权矩阵。 (3)网络关于第p个样本的误差测度: * * (4) 网络关于整个样本集的误差测度: * * 1、输出层权的调整 wpq= wpq+?wpq ?wpq=αδqop =αfn′ (netq)(yq-oq)op =αoq(1-oq) (yq-oq)op wpq ANp ANq 第L-1层 第L层 ?wpq * * ? ANp ANq ANh vhp δpk-1 δ1k wp1 wpq δqk wpm δmk 第k-2层 第k层 第k-1层 … … 基本BP算法 neti=x1w1i+x2w2i+…+xnwni * * clc clc; clear; close all; ld=200; x=rand(2,ld); x=(x-0.5)*3; x1=x(1,:); x2=x(2,:); F=20+x1.^2-10*cos(2*pi*x1)+x2.^2-10*cos(2*pi*x2); net=newff(minmax(x),[5,1],{tansig,purelin},trainlm); net.trainParam.epochs = 5000; net.trainParam.goal = 1e-3; net.trainParam.lr = 0.05; net.trainParam.mc = 0.8; [net,tr]=train(net,x,F);
文档评论(0)